AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

1,211,342 views ・ 2023-11-06

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Mihaela Niță Corector: Claudia Pravat
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
Sunt cercetător în IA de peste un deceniu.
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
Acum câteva luni, am primit cel mai ciudat e-mail de când lucrez.
00:11
A random stranger wrote to me
2
11925
1668
Un necunoscut mi-a scris
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
că munca mea în IA va pune capăt omenirii.
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
Înțeleg, IA e un subiect fierbinte acum.
00:22
(Laughter)
5
22352
1627
(Râsete)
00:24
It's in the headlines pretty much every day,
6
24020
2086
E pe prima pagină aproape zilnic,
00:26
sometimes because of really cool things
7
26106
1918
uneori despre chestii tare faine:
00:28
like discovering new molecules for medicine
8
28066
2169
a descoperit noi molecule pentru medicamente
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
sau Papa ăla mișto cu geacă albă de puf.
00:33
But other times the headlines have been really dark,
10
33446
2461
Alteori știrile au fost tare sumbre:
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
chatbotul care i-a zis unui bărbat că ar trebui să divorțeze de soție,
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
sau aplicația de planificare a meselor,
care a propus o îmbietoare rețetă cu clor gazos.
00:43
featuring chlorine gas.
13
43707
2002
00:46
And in the background,
14
46376
1418
Am auzit, de asemenea,
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
multe discuții despre scenarii apocaliptice,
00:50
existential risk and the singularity,
16
50255
1918
risc existențial și singularitate,
00:52
with letters being written and events being organized
17
52215
2503
cu scrisori deschise și evenimente organizate
00:54
to make sure that doesn't happen.
18
54718
2002
ca să prevenim așa ceva.
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
Sunt un cercetător care studiază efectele IA asupra societății
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
și nu știu ce se va întâmpla peste 10 sau 20 de ani,
01:05
and nobody really does.
21
65145
2461
nimeni nu știe concret.
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
Ce știu e că sub ochii noștri se întâmplă niște lucruri tare urâte,
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
pentru că IA nu e de sine stătătoare.
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
Face parte din societate și afectează oamenii și planeta.
01:20
AI models can contribute to climate change.
25
80160
2502
Modelele de IA contribuie la schimbările climatice,
01:22
Their training data uses art and books created by artists
26
82704
3462
sunt instruite cu artă și cărți create de artiști și autori
01:26
and authors without their consent.
27
86207
1710
fără acordul acestora,
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
iar implementarea IA poate discrimina comunități întregi.
01:32
But we need to start tracking its impacts.
29
92797
2127
Trebuie să începem să-i urmărim efectele.
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
Trebuie să fim transparenți, să le dezvăluim, să creăm instrumente,
01:38
so that people understand AI better,
31
98595
2419
ca oamenii să înțeleagă IA mai bine,
01:41
so that hopefully future generations of AI models
32
101056
2335
ca măcar viitoarele generații de modele de IA
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
să fie mai de încredere, mai sustenabile,
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
poate mai puțin probabil să ne ucidă, dacă asta vă preocupă.
01:50
But let's start with sustainability,
35
110148
1752
Dar să începem cu sustenabilitatea,
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
fiindcă norul pe care stau modelele de IA e de fapt din metal sau plastic
01:57
and powered by vast amounts of energy.
37
117656
2460
și e alimentat cu cantități enorme de energie.
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
Oricând îi cereți ceva unui model de IA, asta presupune un cost pentru planetă.
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
Anul trecut am făcut parte din inițiativa BigScience,
02:08
which brought together a thousand researchers
40
128833
2127
care a reunit o mie de cercetători
02:10
from all over the world to create Bloom,
41
130960
2503
din întreaga lume pentru a crea Bloom,
02:13
the first open large language model, like ChatGPT,
42
133505
4337
primul model mare de limbaj cu sursă deschisă, ca ChatGPT,
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
dar cu accent pe etică, transparență și consimțământ.
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
Din studiul condus asupra efectelor lui Bloom asupra mediului,
02:25
found that just training it used as much energy
45
145016
3253
a reieșit că numai instruirea a consumat la fel de multă energie
02:28
as 30 homes in a whole year
46
148311
2211
cât 30 de case într-un an
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
și a emis 25 de tone de dioxid de carbon,
02:33
which is like driving your car five times around the planet
48
153024
3253
ceea ce e ca și cum ai face înconjurul lumii cu mașina de 5 ori,
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
doar ca cineva să folosească modelul ca să zică un banc sec.
02:39
And this might not seem like a lot,
50
159489
2169
Asta poate părea că nu e mult,
02:41
but other similar large language models,
51
161700
2460
dar alte modele mari de limbaj similare,
02:44
like GPT-3,
52
164202
1126
ca GPT-3,
02:45
emit 20 times more carbon.
53
165370
2544
emit de 20 de ori mai mult carbon.
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
Dar companiile tehnologice nu măsoară așa ceva,
02:50
They're not disclosing it.
55
170875
1252
nu dezvăluie așa ceva.
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
Asta e probabil doar vârful aisbergului,
02:54
even if it is a melting one.
57
174629
1418
chiar dacă-i unul ce se topește.
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
În ultimii ani am văzut cum modelele de IA cresc,
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
pentru că în IA e la modă acum „mai mare înseamnă mai bine”.
03:04
But please don't get me started on why that's the case.
60
184305
2795
Nu mă faceți să zic de ce.
03:07
In any case, we've seen large language models in particular
61
187100
3003
În orice caz, am văzut mai ales modele mari de limbaj
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
crescând de 2000 de ori în ultimii cinci ani.
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
Evident, costurile lor de mediu au crescut pe măsură.
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
Cel mai recent studiu ce l-am condus
arată că înlocuind un model de limbaj mai mic și eficient cu altul mai mare,
03:20
more efficient model for a larger language model
65
200238
3337
03:23
emits 14 times more carbon for the same task.
66
203616
3754
se emite de 14 ori mai mult carbon pentru aceeași sarcină,
03:27
Like telling that knock-knock joke.
67
207412
1877
cum ar fi bancul ăla sec.
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
Cum punem modelele astea în telefoane mobile și motoare de căutare,
03:32
and smart fridges and speakers,
69
212792
2836
în frigidere și difuzoare inteligente,
03:35
the environmental costs are really piling up quickly.
70
215628
2628
costurile de mediu cresc rapid.
03:38
So instead of focusing on some future existential risks,
71
218840
3754
Deci, în loc să ne concentrăm asupra unor riscuri existențiale viitoare,
03:42
let's talk about current tangible impacts
72
222635
2753
să vorbim despre efectele concrete actuale
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
și de instrumentele ce le putem crea ca să măsurăm și atenuăm aceste efecte.
03:49
I helped create CodeCarbon,
74
229893
1668
Am ajutat la crearea CodeCarbon,
03:51
a tool that runs in parallel to AI training code
75
231603
2961
un software ce rulează alături de codul de instruire al IA
03:54
that estimates the amount of energy it consumes
76
234564
2211
și estimează cantitatea de energie consumată și carbon emis.
03:56
and the amount of carbon it emits.
77
236775
1668
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
Un asemenea software ne ajută să luăm decizii bine informați:
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
să alegem un model în locul altuia mai sustenabil
04:04
or deploying AI models on renewable energy,
80
244657
2920
sau să implementăm modele de IA folosind energie regenerabilă,
04:07
which can drastically reduce their emissions.
81
247619
2544
ceea ce ar reduce drastic emisiile.
04:10
But let's talk about other things
82
250163
2085
Dar să vorbim despre alte lucruri,
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
pentru că IA nu are efecte doar asupra sustenabilității.
04:15
For example, it's been really hard for artists and authors
84
255627
3128
De exemplu, artiștilor și autorilor le-a fost tare greu
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
să demonstreze că munca lor de-o viață
a fost folosită la instruirea modelelor IA fără să-și dea acordul.
04:23
without their consent.
86
263051
1209
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
Dacă vrei să dai în judecată pe cineva, ai nevoie de dovezi, nu?
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
Spawning.ai, o organizație fondată de artiști,
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
a creat un instrument interesant numit „Am fost instruit?”.
04:35
And it lets you search these massive data sets
90
275104
2461
Cu el puteți să căutați în niște baze de date enorme,
04:37
to see what they have on you.
91
277607
2085
ca să vedeți ce date au despre voi.
04:39
Now, I admit it, I was curious.
92
279734
1668
Recunosc, am fost curioasă.
04:41
I searched LAION-5B,
93
281444
1627
Am căutat în LAION-5B,
04:43
which is this huge data set of images and text,
94
283112
2461
o imensă bază de date de imagini și text,
04:45
to see if any images of me were in there.
95
285615
2711
ca să văd dacă sunt imagini cu mine acolo.
04:49
Now those two first images,
96
289285
1585
În primele două imagini
04:50
that's me from events I've spoken at.
97
290870
2169
sunt eu la evenimentele unde am vorbit.
04:53
But the rest of the images, none of those are me.
98
293081
2753
Dar în restul imaginilor nu sunt eu.
04:55
They're probably of other women named Sasha
99
295875
2002
Probabil sunt alte femei pe nume Sasha,
04:57
who put photographs of themselves up on the internet.
100
297919
2628
care au pus fotografii cu ele pe internet.
05:01
And this can probably explain why,
101
301047
1627
Asta probabil explică de ce
05:02
when I query an image generation model
102
302715
1836
dacă-i cer unui generator de imagini o poză cu o femeie numită Sasha,
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
05:06
more often than not I get images of bikini models.
104
306886
2753
de cele mai multe ori îmi arată imagini cu modele în bikini.
05:09
Sometimes they have two arms,
105
309681
1626
Uneori au două brațe,
05:11
sometimes they have three arms,
106
311349
2294
alteori au trei brațe,
05:13
but they rarely have any clothes on.
107
313685
2043
dar rareori au haine pe ele.
05:16
And while it can be interesting for people like you and me
108
316563
2794
Poate fi interesant pentru oameni obișnuiți ca noi
05:19
to search these data sets,
109
319357
2127
să căutăm în aceste baze de date,
05:21
for artists like Karla Ortiz,
110
321526
2044
dar pentru artiști precum Karla Ortiz,
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
oferă dovezi cruciale că munca ei de-o viață, opera sa de artă,
05:27
was used for training AI models without her consent,
112
327365
2961
a fost folosită la instruirea modelelor de IA fără acordul ei.
05:30
and she and two artists used this as evidence
113
330326
2336
Ea și alți doi artiști au folosit asta ca probă
05:32
to file a class action lawsuit against AI companies
114
332704
2794
într-o acțiune colectivă împotriva companiilor de IA
05:35
for copyright infringement.
115
335540
1960
pentru încălcarea drepturilor de autor.
05:37
And most recently --
116
337542
1168
De curând...
05:38
(Applause)
117
338710
3378
(Aplauze)
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
Recent, Spawning.ai a început un parteneriat cu Hugging Face,
05:45
the company where I work at,
119
345216
1585
compania unde lucrez,
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
ca să creeze căi de includere și excludere pentru aceste baze de date,
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
fiindcă arta creată de oameni n-ar trebui să fie bufet suedez
05:55
for training AI language models.
122
355727
1793
pentru instruirea modelelor de limbaj de IA.
05:58
(Applause)
123
358313
4254
(Aplauze)
06:02
The very last thing I want to talk about is bias.
124
362567
2336
Ultimul subiect e discriminarea.
06:04
You probably hear about this a lot.
125
364944
1919
Probabil ați auzit asta de multe ori.
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
Oficial, înseamnă că modelele de IA codifică tipare și convingeri
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
ce reprezintă stereotipuri, rasism sau sexism.
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
Un idol al meu, Dr. Joy Buolamwini, a simțit-o pe propria piele,
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
când și-a dat seama că sistemele de IA nu-i detectau fața
06:20
unless she was wearing a white-colored mask.
130
380752
2169
dacă nu purta o mască albă.
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
Aprofundând, a descoperit că sistemele de recunoaștere facială
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
erau mult mai slabe pentru femeile de culoare decât pentru bărbații albi.
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
Când astfel de modele părtinitoare se folosesc în scopul aplicării legii,
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
asta poate duce la acuzații false, ba chiar arest injust,
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
ceea ce li s-a întâmplat mai multor persoane în ultimele luni.
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
Porcha Woodruff a fost acuzată pe nedrept de furt auto când era gravidă în 8 luni,
06:47
at eight months pregnant
137
407111
1252
06:48
because an AI system wrongfully identified her.
138
408363
2961
fiindcă un sistem de IA a identificat-o în mod greșit.
06:52
But sadly, these systems are black boxes,
139
412325
2002
Din păcate, aceste sisteme sunt opace
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
și nici măcar creatorii lor nu pot zice exact cum funcționează.
07:00
And for example, for image generation systems,
141
420917
3462
De exemplu, sistemele care generează imagini,
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
dacă sunt folosite în situații precum generarea unui portret-robot
07:08
based on a description of a perpetrator,
143
428549
2711
pe baza descrierii infractorului,
07:11
they take all those biases and they spit them back out
144
431260
3587
iau toate aceste prejudecăți și le perpetuează
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
cu termeni ca criminal periculos, terorist sau membru al bandei,
07:18
which of course is super dangerous
146
438393
2168
ceea ce, desigur, e super periculos
07:20
when these tools are deployed in society.
147
440603
4421
când aceste instrumente sunt folosite în societate.
07:25
And so in order to understand these tools better,
148
445566
2294
Pentru a înțelege mai bine aceste instrumente,
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
am creat un program numit Stable Bias Explorer,
07:31
which lets you explore the bias of image generation models
150
451155
3379
ce permite explorarea prejudecăților modelelor ce generează imagini
07:34
through the lens of professions.
151
454575
1669
prin prisma profesiilor.
07:37
So try to picture a scientist in your mind.
152
457370
3045
Încercați să vă imaginați un om de știință.
07:40
Don't look at me.
153
460456
1168
Nu vă uitați la mine.
07:41
What do you see?
154
461666
1335
Ce vedeți?
07:43
A lot of the same thing, right?
155
463835
1501
Foarte mulți de același fel, nu?
07:45
Men in glasses and lab coats.
156
465378
2377
Bărbați cu ochelari și halate de laborator.
07:47
And none of them look like me.
157
467797
1710
Și niciunul nu seamănă cu mine.
07:50
And the thing is,
158
470174
1460
Chestia e
07:51
is that we looked at all these different image generation models
159
471676
3253
că ne-am uitat la toate aceste modele ce generează imagini
07:54
and found a lot of the same thing:
160
474929
1627
și am găsit același lucru:
07:56
significant representation of whiteness and masculinity
161
476597
2586
culoarea albă și masculinitatea reprezentate semnificativ
07:59
across all 150 professions that we looked at,
162
479225
2127
în toate cele 150 de profesii analizate.
08:01
even if compared to the real world,
163
481352
1794
Chiar și comparat cu lumea reală,
08:03
the US Labor Bureau of Statistics.
164
483187
1836
cu Biroul de Statistică a Muncii,
08:05
These models show lawyers as men,
165
485023
3044
aceste modele redau avocații ca bărbați
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
și directorii executivi ca bărbați, aproape de fiecare dată,
08:11
even though we all know not all of them are white and male.
167
491571
3170
chiar dacă știm cu toții că nu sunt toți albi și bărbați.
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
Din păcate, programul meu încă n-a fost folosit în legislație,
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
dar l-am prezentat recent la un eveniment ONU
despre prejudecata de gen,
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
ca exemplu de cum putem crea instrumente pentru toată lumea,
08:27
even those who don't know how to code,
171
507086
2252
chiar și pentru cei ce nu știu să programeze,
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
ca să folosească și să înțeleagă mai bine IA,
căci noi folosim profesii, dar voi puteți folosi orice termen vă interesează.
08:32
but you can use any terms that are of interest to you.
173
512633
3087
08:36
And as these models are being deployed,
174
516596
2752
Pe măsură ce aceste modele sunt implementate,
08:39
are being woven into the very fabric of our societies,
175
519390
3128
devin îmbinate în structura noastră socială:
08:42
our cell phones, our social media feeds,
176
522518
2044
mobilele, fluxurile rețelelor sociale,
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
până și sistemele de justiție și economiile noastre conțin IA.
08:47
And it's really important that AI stays accessible
178
527815
3879
E foarte important ca IA să rămână accesibilă,
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
ca să știm când funcționează și când nu.
08:56
And there's no single solution for really complex things like bias
180
536908
4296
Nu există o soluție unică pentru ceva așa complex ca discriminarea,
09:01
or copyright or climate change.
181
541245
2419
drepturile de autor sau schimbările climatice.
09:03
But by creating tools to measure AI's impact,
182
543664
2711
Dar creând instrumente pentru a măsura efectele IA,
09:06
we can start getting an idea of how bad they are
183
546375
3337
ne putem facem o idee despre cât de nocive sunt
09:09
and start addressing them as we go.
184
549754
2502
și le putem rezolva pe parcurs,
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
putem crea mecanisme ca să protejăm societatea și planeta.
09:16
And once we have this information,
186
556177
2336
Odată ce avem aceste informații,
09:18
companies can use it in order to say,
187
558513
1835
companiile le pot folosi pentru a decide:
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
„Alegem modelul ăsta fiindcă e mai sustenabil,
09:23
this model because it respects copyright.
189
563601
2044
modelul ăsta fiindcă respectă drepturile de autor.”
09:25
Legislators who really need information to write laws,
190
565686
3087
Legislatorii ce au nevoie de informații ca să elaboreze legi
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
pot folosi instrumente ca să dezvolte noi mecanisme de reglementare
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
sau guvernare a IA pe măsură ce e implementată în societate.
09:36
And users like you and me can use this information
193
576114
2377
Iar utilizatorii ca noi pot folosi informațiile
09:38
to choose AI models that we can trust,
194
578491
3337
ca să aleagă modele de IA în care pot avea încredere,
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
să nu ne reprezinte greșit și să nu abuzeze de datele noastre.
09:45
But what did I reply to that email
196
585790
1918
Dar ce am răspuns la acel e-mail
09:47
that said that my work is going to destroy humanity?
197
587750
2961
care zicea că munca mea va distruge omenirea?
09:50
I said that focusing on AI's future existential risks
198
590711
4046
Am zis că dacă ne concentrăm pe riscurile existențiale viitoare ale IA,
09:54
is a distraction from its current,
199
594799
2044
pierdem din vedere efectele sale actuale și concrete
09:56
very tangible impacts
200
596843
1835
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
și munca ce trebuie făcută chiar acum, ba chiar de ieri,
10:02
for reducing these impacts.
202
602723
1919
pentru a reduce aceste efecte.
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
Fiindcă, da, IA se mișcă rapid, dar nu e definitivată.
10:08
We're building the road as we walk it,
204
608771
2503
Construim drumul pe măsură ce-l parcurgem
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
și putem decide colectiv în ce direcție vrem să mergem împreună.
10:15
Thank you.
206
615069
1210
Mulțumesc.
10:16
(Applause)
207
616279
2002
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7