When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED

121,392 views ・ 2023-12-26

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Claudia Pravat
00:03
It's getting harder, isn't it, to spot real from fake,
0
3583
3879
E din ce în ce mai greu să identifici ceva real de ceva fals,
00:07
AI-generated from human-generated.
1
7504
2252
ceva generat de AI și ceva creat de om.
Cu inteligența artificială generativă
00:10
With generative AI,
2
10340
1126
00:11
along with other advances in deep fakery,
3
11508
2419
și alte progrese din domeniul conținutului falsificat,
00:13
it doesn't take many seconds of your voice,
4
13969
2252
e nevoie de câteva secunde din vocea ta,
00:16
many images of your face,
5
16263
1459
câteva imagini ale feței tale,
00:17
to fake you,
6
17764
1251
pentru a-ți fi furată identitatea,
00:19
and the realism keeps increasing.
7
19015
2628
iar precizia e din ce în ce mai mare.
00:21
I first started working on deepfakes in 2017,
8
21685
3086
Am început să lucrez la deepfakes în 2017,
00:24
when the threat to our trust in information was overhyped,
9
24813
3962
când crescuse amenințarea la adresa încrederii în informații,
00:28
and the big harm, in reality, was falsified sexual images.
10
28775
3670
iar cel mai grav a fost apariția de imagini sexuale falsificate.
00:32
Now that problem keeps growing, harming women and girls worldwide.
11
32904
4171
Această problemă a crescut și afectează femei și fete din întreaga lume.
00:38
But also, with advances in generative AI, we're now also approaching a world
12
38159
4713
De asemenea, odată cu progresele AI, ne apropiem acum de o lume
00:42
where it's broadly easier to make fake reality,
13
42872
3462
în care e ușor să creezi o realitate falsă,
00:46
but also to dismiss reality as possibly faked.
14
46376
3879
dar și să respingi realitatea și s-o consideri falsă.
00:50
Now, deceptive and malicious audiovisual AI
15
50755
3420
Inteligența artificială audiovizuală înșelătoare și rău intenționată
00:54
is not the root of our societal problems,
16
54217
2669
nu e rădăcina problemelor noastre din societate,
00:56
but it's likely to contribute to them.
17
56928
2252
dar poate contribui la ele.
00:59
Audio clones are proliferating in a range of electoral contexts.
18
59180
4213
Clonele audio proliferează într-o serie de contexte electorale.
01:03
"Is it, isn't it" claims cloud human-rights evidence from war zones,
19
63435
5130
Afirmațiile „E adevărat”/„Nu e adevărat” nu aduc dovezi reale din zonele de război,
01:08
sexual deepfakes target women in public and in private,
20
68565
4129
falsificările sexuale vizează femeile în public și în privat,
01:12
and synthetic avatars impersonate news anchors.
21
72736
3336
iar avatarurile artificiale se deghizează în prezentatori de știri.
01:16
I lead WITNESS.
22
76656
1460
Sunt director la WITNESS,
un grup pentru drepturile omului,
01:18
We're a human-rights group
23
78116
1376
01:19
that helps people use video and technology to protect and defend their rights.
24
79492
3671
care ajută oamenii să-și apere drepturile, folosind tehnologia video.
01:23
And for the last five years, we've coordinated a global effort,
25
83163
3003
În ultimii cinci ani, am coordonat un efort global,
01:26
"Prepare, Don't Panic,"
26
86333
1167
„Pregătiți-vă, nu vă panicați”,
01:27
around these new ways to manipulate and synthesize reality,
27
87500
3045
în jurul noilor modalități de manipulare și sintetizare a realității
01:30
and on how to fortify the truth
28
90587
2377
și a modului de a consolida adevărul,
01:32
of critical frontline journalists and human-rights defenders.
29
92964
3420
oferit de jurnaliștii din prima linie și apărătorii drepturilor omului.
01:37
Now, one element in that is a deepfakes rapid-response task force,
30
97218
5423
O componentă a lui e grupul de lucru care verifică rapid falsurile,
01:42
made up of media-forensics experts
31
102641
2127
format din experți în media criminalistică
01:44
and companies who donate their time and skills
32
104768
2168
și companii care își donează timpul și abilitățile
01:46
to debunk deepfakes and claims of deepfakes.
33
106978
3087
pentru a dezvălui falsurile atunci când apar.
01:50
The task force recently received three audio clips,
34
110899
3211
Grupul de lucru a primit recent trei clipuri audio,
01:54
from Sudan, West Africa and India.
35
114110
2670
din Sudan, Africa de Vest și India.
01:57
People were claiming that the clips were deepfaked, not real.
36
117155
3879
Oamenii susțineau că nu erau reale, ci falsificate.
02:01
In the Sudan case,
37
121451
1210
În cazul Sudanului,
02:02
experts used a machine-learning algorithm
38
122702
2002
experții au folosit un algoritm de învățare automată,
02:04
trained on over a million examples of synthetic speech
39
124746
2628
testat în peste un milion de exemple de vorbire contrafăcută,
02:07
to prove, almost without a shadow of a doubt,
40
127374
2294
pentru a dovedi, aproape fără umbră de îndoială,
02:09
that it was authentic.
41
129709
1335
că este autentic.
02:11
In the West Africa case,
42
131586
1835
În cazul Africii de Vest,
02:13
they couldn't reach a definitive conclusion
43
133463
2002
nu s-a putut ajunge la o concluzie definitivă,
02:15
because of the challenges of analyzing audio from Twitter,
44
135507
2794
din cauza problemelor la analiza audio de pe Twitter
02:18
and with background noise.
45
138301
1752
și a zgomotului de fundal.
02:20
The third clip was leaked audio of a politician from India.
46
140095
3712
Al treilea clip a fost difuzat audio și era al unui politician din India.
02:23
Nilesh Christopher of “Rest of World” brought the case to the task force.
47
143848
3796
Nilesh Christopher, de la „Rest of World”, a prezentat cazul grupului de lucru.
02:27
The experts used almost an hour of samples
48
147644
2961
Experții au folosit o oră de eșantioane
02:30
to develop a personalized model of the politician's authentic voice.
49
150605
3879
pentru a dezvolta un model personalizat al vocii reale a politicianului.
02:35
Despite his loud and fast claims that it was all falsified with AI,
50
155151
4380
În ciuda afirmațiilor sale că totul a fost falsificat cu AI,
02:39
experts concluded that it at least was partially real, not AI.
51
159572
4255
experții au ajuns la concluzia că era parțial real, nu doar AI.
02:44
As you can see,
52
164369
1335
După cum puteți vedea,
02:45
even experts cannot rapidly and conclusively separate true from false,
53
165745
5089
nici experții nu pot separa rapid și concludent adevărul de fals,
02:50
and the ease of calling "that's deepfaked" on something real
54
170875
4421
iar ușurința de a cataloga drept deepfake ceva real
02:55
is increasing.
55
175296
1168
este în creștere.
02:57
The future is full of profound challenges,
56
177132
2002
Viitorul e plin de provocări profunde,
02:59
both in protecting the real and detecting the fake.
57
179175
3420
atât în protejarea realului, cât și în detectarea falsului.
03:03
We're already seeing the warning signs
58
183888
1919
Vedem deja semnele de avertizare
03:05
of this challenge of discerning fact from fiction.
59
185807
2711
ale acestei provocări de a discerne realul de ficțiune.
03:08
Audio and video deepfakes have targeted politicians,
60
188560
3128
Deepfake-urile audio și video au vizat politicieni, lideri politici
03:11
major political leaders in the EU, Turkey and Mexico,
61
191688
3587
din UE, Turcia și Mexic
03:15
and US mayoral candidates.
62
195316
1710
și candidați pentru primăriile din SUA.
03:17
Political ads are incorporating footage of events that never happened,
63
197444
3503
Reclamele politice conțin imagini cu evenimente care nu s-au întâmplat,
03:20
and people are sharing AI-generated imagery from crisis zones,
64
200947
4546
iar oamenii distribuie imagini generate de AI din zonele de criză,
03:25
claiming it to be real.
65
205535
1418
susținând că sunt reale.
03:27
Now, again, this problem is not entirely new.
66
207454
3211
Această problemă nu e deloc nouă.
03:31
The human-rights defenders and journalists I work with
67
211207
2628
Apărătorii drepturilor omului și jurnaliștii cu care lucrez
03:33
are used to having their stories dismissed,
68
213835
2794
sunt obișnuiți să li se respingă reportajele
03:36
and they're used to widespread, deceptive, shallow fakes,
69
216671
3462
și cunosc falsurile răspândite, înșelătoare, superficiale,
03:40
videos and images taken from one context or time or place
70
220175
3670
videoclipuri și imagini luate din context, timp sau loc
03:43
and claimed as if they're in another,
71
223887
2460
și prezentate ca și cum s-ar fi întâmplat în altă parte,
03:46
used to share confusion and spread disinformation.
72
226347
3129
folosite pentru a stârni confuzie și a răspândi dezinformare.
03:49
And of course, we live in a world that is full of partisanship
73
229934
3170
Trăim într-o lume plină de partizanat
03:53
and plentiful confirmation bias.
74
233146
2127
și prejudecăți de tot felul.
03:57
Given all that,
75
237317
1209
De aceea,
03:58
the last thing we need is a diminishing baseline
76
238526
3045
ultimul lucru de care avem nevoie e o bază din ce în ce mai mică
04:01
of the shared, trustworthy information upon which democracies thrive,
77
241613
3962
de informații de încredere pe care prosperă democrațiile,
04:05
where the specter of AI
78
245617
1418
unde spectrul AI e folosit
04:07
is used to plausibly believe things you want to believe,
79
247076
3462
pentru a crede în mod plauzibil lucruri pe care dorim să le credem
04:10
and plausibly deny things you want to ignore.
80
250538
2336
și pentru a nega lucrurile pe care dorim să le ignorăm.
Dar există o modalitate prin care putem preveni acel viitor,
04:15
But I think there's a way we can prevent that future,
81
255084
2628
04:17
if we act now;
82
257754
1501
dacă acționăm acum;
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
dacă ne „Pregătim, nu intrăm în panică”,
04:21
we'll kind of make our way through this somehow.
84
261508
3253
vom reuși să trecem prin asta.
04:25
Panic won't serve us well.
85
265929
2627
Panica nu aduce nimic bun.
04:28
[It] plays into the hands of governments and corporations
86
268681
2711
[Ea] e folosită de guverne și corporații,
04:31
who will abuse our fears,
87
271392
1669
care abuzează de fricile noastre,
04:33
and into the hands of people who want a fog of confusion
88
273102
3045
și de cei care vor să provoace confuzie
04:36
and will use AI as an excuse.
89
276147
2461
și folosesc AI ca pretext.
04:40
How many people were taken in, just for a minute,
90
280610
2419
Câți au fost păcăliți, fie și doar pentru un minut,
04:43
by the Pope in his dripped-out puffer jacket?
91
283029
2336
de jacheta Papei?
04:45
You can admit it.
92
285406
1168
Recunoașteti.
04:46
(Laughter)
93
286574
1210
(Râsete)
04:47
More seriously,
94
287784
1209
Mai grav decât atât,
câți dintre voi cunoașteți pe cineva care a fost înșelat
04:49
how many of you know someone who's been scammed
95
289035
2503
04:51
by an audio that sounds like their kid?
96
291579
2044
de o voce care seamănă cu a copilului lor?
04:54
And for those of you who are thinking "I wasn't taken in,
97
294624
2920
Iar pentru aceia dintre voi care spun „N-am fost păcălit,
04:57
I know how to spot a deepfake,"
98
297544
1584
știu cum să depistez un deepfake”,
04:59
any tip you know now is already outdated.
99
299170
3003
orice recomandare pe care o știți nu mai e de actualitate.
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
O imagine falsă nu clipea, dar acum clipește.
05:06
Six-fingered hands were more common in deepfake land than real life --
101
306177
3587
Vedeam mâini cu șase degete mai mult în deepfake decât în viața reală,
05:09
not so much.
102
309806
1126
acum nu prea mai există.
05:11
Technical advances erase those visible and audible clues
103
311307
3754
Progresele tehnice șterg indiciile audio și video
05:15
that we so desperately want to hang on to
104
315061
2002
pe care ne bazăm
05:17
as proof we can discern real from fake.
105
317105
2252
pentru a deosebi realul de fals.
05:20
But it also really shouldn’t be on us to make that guess without any help.
106
320191
4713
Dar n-ar trebui să facem noi această deosebire.
05:24
Between real deepfakes and claimed deepfakes,
107
324946
2127
Pentru falsurile existente și cele revendicate
05:27
we need big-picture, structural solutions.
108
327073
2961
avem nevoie de soluții de ansamblu.
05:30
We need robust foundations
109
330034
1502
Avem nevoie de elemente robuste
05:31
that enable us to discern authentic from simulated,
110
331578
3128
care să ne permită să discernem autenticul de artificial,
05:34
tools to fortify the credibility of critical voices and images,
111
334747
3921
instrumente pentru a mări credibilitatea vocilor și imaginilor importante
05:38
and powerful detection technology
112
338668
2336
și o tehnologie puternică
05:41
that doesn't raise more doubts than it fixes.
113
341045
2670
ce nu ridică mai multe îndoieli decât rezolvă.
05:45
There are three steps we need to take to get to that future.
114
345091
3045
Există trei etape pentru a ajunge la acest punct.
05:48
Step one is to ensure that the detection skills and tools
115
348887
3712
Prima e să vă asigurați că instrumentele de detectare
05:52
are in the hands of the people who need them.
116
352599
2168
sunt în mâinile persoanelor care au nevoie de ele.
05:54
I've talked to hundreds of journalists,
117
354767
2253
Am vorbit cu sute de jurnaliști,
lideri din comunității, apărători ai drepturilor omului,
05:57
community leaders and human-rights defenders,
118
357020
2252
05:59
and they're in the same boat as you and me and us.
119
359272
2919
și toți sunt de aceeași părere.
06:02
They're listening to the audio, trying to think, "Can I spot a glitch?"
120
362191
3421
Ascultă vocea și se gândesc dacă pot observa un indiciu.
06:05
Looking at the image, saying, "Oh, does that look right or not?"
121
365612
3295
Privesc imaginea și se gândesc dacă e reală sau nu.
06:08
Or maybe they're going online to find a detector.
122
368907
3336
Pot căuta online un anumit detector.
06:12
And the detector they find,
123
372285
1335
Cu acest detector
06:13
they don't know whether they're getting a false positive, a false negative,
124
373661
3545
nu știu dacă rezultatul obținut va fi fals pozitiv, fals negativ
06:17
or a reliable result.
125
377248
1251
sau unul adevărat.
06:18
Here's an example.
126
378541
1168
Iată un exemplu.
06:19
I used a detector, which got the Pope in the puffer jacket right.
127
379751
3712
Am folosit un detector pentru Papa purtând acea jachetă.
06:23
But then, when I put in the Easter bunny image that I made for my kids,
128
383796
4255
Apoi am pus și iepurașul de Paști, pe care l-am generat pentru copiii mei,
06:28
it said that it was human-generated.
129
388092
1961
și a spus că a fost o imagine generată de om.
06:30
This is because of some big challenges in deepfake detection.
130
390637
3253
Asta pentru că există mari probleme în detectarea falsurilor.
06:34
Detection tools often only work on one single way to make a deepfake,
131
394474
3295
Instrumentele detectează adesea doar un singur mod de a crea un deepfake,
06:37
so you need multiple tools,
132
397769
1543
deci e nevoie de mai multe instrumente
06:39
and they don't work well on low-quality social media content.
133
399354
4337
și ele nu funcționează bine în conținutul rețelelor sociale
de calitate scăzută.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
Scorul de încredere e 0,76-0,87,
06:47
how do you know whether that's reliable,
135
407028
1919
așadar nu știi dacă e real,
06:48
if you don't know if the underlying technology is reliable,
136
408988
2795
dacă tehnologia de bază e fiabilă
06:51
or whether it works on the manipulation that is being used?
137
411824
2795
sau dacă funcționează în scopul pentru care e utilizată.
06:54
And tools to spot an AI manipulation don't spot a manual edit.
138
414661
5046
Iar instrumentele de identificare în cazul manipulării AI
nu detectează editarea manuală.
07:00
These tools also won't be available to everyone.
139
420583
3587
În plus, aceste instrumente nu sunt la îndemâna oricui.
07:04
There's a trade-off between security and access,
140
424212
3128
E un compromis între securitate și acces,
07:07
which means if we make them available to anyone,
141
427382
2544
ceea ce înseamnă că dacă are acces oricine la ele,
07:09
they become useless to everybody,
142
429926
2586
ele devin inutile la scară largă,
07:12
because the people designing the new deception techniques
143
432512
2711
deoarece cei care lucrează la noile tehnici de înșelătorie
07:15
will test them on the publicly available detectors
144
435264
3087
le vor testa pe detectoarele disponibile
07:18
and evade them.
145
438393
1209
și astfel nu vor fi detectate.
07:20
But we do need to make sure these are available
146
440061
2920
Dar trebuie să ne asigurăm că acestea sunt disponibile
07:22
to the journalists, the community leaders,
147
442981
2085
jurnaliștilor, liderilor din comunități,
07:25
the election officials, globally, who are our first line of defense,
148
445108
3628
oficialilor electorali la nivel global, care sunt prima noastră linie de apărare,
07:28
thought through with attention to real-world accessibility and use.
149
448736
3254
gândite minuțios ca să fie accesibile și utilizate în lumea reală.
07:32
Though at the best circumstances,
150
452991
2544
În cele mai bune circumstanțe,
07:35
detection tools will be 85 to 95 percent effective,
151
455576
3003
eficacitatea instrumentelor de detectare e de 85%-95%,
07:38
they have to be in the hands of that first line of defense,
152
458579
2795
de aceea trebuie să fie în mâinile celor din linia întâi,
07:41
and they're not, right now.
153
461374
1543
iar acum nu prea sunt.
07:43
So for step one, I've been talking about detection after the fact.
154
463710
3128
Ca prim pas, am vorbit despre detectare după ce evenimentul a avut loc.
07:46
Step two -- AI is going to be everywhere in our communication,
155
466838
4462
Pasul doi - AI va fi prezentă peste tot în comunicarea noastră,
07:51
creating, changing, editing.
156
471300
2169
creând, schimbând, editând.
07:53
It's not going to be a simple binary of "yes, it's AI" or "phew, it's not."
157
473469
4755
Nu va fi o simplă combinație de două elemente: AI sau non-AI.
07:58
AI is part of all of our communication,
158
478224
3086
AI e parte din toată comunicarea noastră,
08:01
so we need to better understand the recipe of what we're consuming.
159
481352
4046
așa că trebuie să înțelegem mai bine ce consumăm.
08:06
Some people call this content provenance and disclosure.
160
486232
3754
Unii oameni numesc acest conținut proveniență și dezvăluire.
Specialiștii în tehnologie au construit moduri de a adăuga elemente invizibile
08:10
Technologists have been building ways to add invisible watermarking
161
490028
3503
08:13
to AI-generated media.
162
493573
1877
la comunicările generate de AI.
08:15
They've also been designing ways --
163
495491
1752
De asemenea, au venit cu idei,
08:17
and I've been part of these efforts --
164
497243
1877
și am făcut parte din aceste eforturi,
08:19
within a standard called the C2PA,
165
499162
1710
în cadrul unui standard numit C2PA,
08:20
to add cryptographically signed metadata to files.
166
500872
2669
pentru a adăuga metadate semnate criptografic în fișiere.
08:24
This means data that provides details about the content,
167
504125
4379
Asta înseamnă date care oferă detalii despre conținut,
08:28
cryptographically signed in a way that reinforces our trust
168
508546
3712
semnate criptografic într-un mod care ne consolidează încrederea
08:32
in that information.
169
512300
1501
în acele informații.
08:33
It's an updating record of how AI was used to create or edit it,
170
513801
5297
E o înregistrare actualizată a modului în care AI a fost utilizată
pentru a o crea sau edita,
08:39
where humans and other technologies were involved,
171
519098
2670
unde au fost implicați oamenii și alte tehnologii
08:41
and how it was distributed.
172
521809
1919
și modul în care a fost distribuită.
08:43
It's basically a recipe and serving instructions
173
523770
3003
Practic, e o rețetă și instrucțiunile de servire
08:46
for the mix of AI and human
174
526814
1961
pentru amestecul de AI și om,
08:48
that's in what you're seeing and hearing.
175
528816
2336
pe care o regăsim în ceea ce vedem și auzim.
08:51
And it's a critical part of a new AI-infused media literacy.
176
531903
4462
Face parte din noua alfabetizare media infuzate de AI.
08:57
And this actually shouldn't sound that crazy.
177
537116
2461
N-ar trebui să pară ceva extraordinar.
08:59
Our communication is moving in this direction already.
178
539577
3212
Comunicarea noastră se îndreaptă deja în această direcție.
09:02
If you're like me -- you can admit it --
179
542789
2002
Dacă faceți ca mine,
09:04
you browse your TikTok “For You” page,
180
544832
2419
mergeți pe pagina „For You” de pe TikTok,
09:07
and you're used to seeing videos that have an audio source,
181
547251
4213
unde vedeți de obicei videoclipuri care au o sursă audio,
09:11
an AI filter, a green screen, a background,
182
551464
2419
un filtru AI, un ecran verde, un fundal,
09:13
a stitch with another edit.
183
553883
1752
un punct cu altă editare.
09:15
This, in some sense, is the alpha version of this transparency
184
555676
3337
Într-un fel, asta e versiunea alfa de transparență,
pe unele dintre platformele majore pe care le folosim astăzi.
09:19
in some of the major platforms we use today.
185
559055
2377
09:21
It's just that it does not yet travel across the internet,
186
561474
2753
Doar că încă nu e prezentă pe internet,
09:24
it’s not reliable, updatable, and it’s not secure.
187
564268
3128
nu e fiabilă, actualizabilă și sigură.
09:27
Now, there are also big challenges
188
567980
2628
De asemenea, există mari provocări
09:30
in this type of infrastructure for authenticity.
189
570650
2544
în acest tip de infrastructură în ce privește autenticitatea.
09:34
As we create these durable signs of how AI and human were mixed,
190
574278
4088
Când creăm aceste semne durabile în care omul se amestecă cu AI,
09:38
that carry across the trajectory of how media is made,
191
578366
3086
care arată cum funcționează mass-media, trebuie să ne asigurăm
09:41
we need to ensure they don't compromise privacy or backfire globally.
192
581494
4129
că nu compromit confidențialitatea și nici nu provoacă la nivel global.
09:46
We have to get this right.
193
586249
1710
Trebuie să facem acest lucru corect.
09:48
We can't oblige a citizen journalist filming in a repressive context
194
588584
4255
Nu putem obliga un jurnalist care filmează într-un context represiv
09:52
or a satirical maker using novel gen-AI tools
195
592839
3169
sau un creator de conținut comic care folosește instrumente noi de AI
09:56
to parody the powerful ...
196
596008
1252
pentru a parodia puterea,
09:58
to have to disclose their identity or personally identifiable information
197
598845
4879
să fie nevoiți să-și dezvăluie identitatea
10:03
in order to use their camera or ChatGPT.
198
603766
2961
când își folosesc camera sau ChatGPT.
10:08
Because it's important they be able to retain their ability to have anonymity,
199
608312
3712
Pentru că e important să-și poată păstra capacitatea de a beneficia de anonimat,
10:12
at the same time as the tool to create is transparent.
200
612066
3378
iar instrumentul de creație să fie transparent.
10:16
This needs to be about the how of AI-human media making,
201
616112
4171
E vorba de cum creăm media om-AI,
10:20
not the who.
202
620283
1167
nu de cine o creează.
10:22
This brings me to the final step.
203
622952
2211
Așa ajungem la ultima etapă.
10:25
None of this works without a pipeline of responsibility
204
625163
4462
Nimic din toate astea nu funcționează fără o cale de responsabilitate
10:29
that runs from the foundation models and the open-source projects
205
629667
4254
ce pornește de la modelele fundamentale și proiectele open-source,
10:33
through to the way that is deployed into systems, APIs and apps,
206
633963
4213
de la modul în care sunt implementate în sisteme, API-uri și aplicații,
10:38
to the platforms where we consume media and communicate.
207
638217
3379
până la platformele unde accesăm media și comunicăm.
10:43
I've spent much of the last 15 years fighting, essentially, a rearguard action,
208
643139
4171
Am petrecut mare parte din ultimii 15 ani luptându-mă cu un inamic secundar,
10:47
like so many of my colleagues in the human rights world,
209
647310
2919
ca mulți dintre colegii mei care apără drepturile omului,
10:50
against the failures of social media.
210
650229
2169
împotriva eșecurilor rețelelor sociale.
10:52
We can't make those mistakes again in this next generation of technology.
211
652899
5380
Nu putem face aceste greșeli din nou în această nouă generație de tehnologie.
10:59
What this means is that governments
212
659572
1835
Asta înseamnă că guvernele
11:01
need to ensure that within this pipeline of responsibility for AI,
213
661449
4254
trebuie să se asigure că în calea de responsabilitate a AI
11:05
there is transparency, accountability and liability.
214
665703
3253
există transparență, responsabilitate și răspundere.
11:10
Without these three steps --
215
670666
2086
Fără aceste trei etape,
11:12
detection for the people who need it most,
216
672793
3129
detectarea persoanelor care au cea mai mare nevoie,
11:15
provenance that is rights-respecting
217
675922
2502
proveniența care respectă drepturile
11:18
and that pipeline of responsibility,
218
678466
2169
și acea cale de responsabilitate,
11:20
we're going to get stuck looking in vain for the six-fingered hand,
219
680635
3545
vom căuta în zadar mâna cu șase degete
11:24
or the eyes that don't blink.
220
684222
1543
sau ochii care nu clipesc.
11:26
We need to take these steps.
221
686390
1836
Trebuie să facem acești pași.
11:28
Otherwise, we risk a world where it gets easier and easier
222
688226
3294
În caz contrar, riscăm o lume în care devine din ce în ce mai ușor
11:31
to both fake reality
223
691520
1502
să falsificăm realitatea
11:33
and dismiss reality as potentially faked.
224
693064
2669
și să respingem realitatea ca fiind falsă.
11:36
And that is a world that the political philosopher Hannah Arendt
225
696234
3086
O lume pe care filosoful politic Hannah Arendt
11:39
described in these terms:
226
699320
1460
a descris-o în acești termeni:
11:40
"A people that no longer can believe anything
227
700821
2628
„Un popor care nu mai poate crede nimic
11:43
cannot make up its own mind.
228
703491
2294
nu poate lua hotărâri singur.
11:45
It is deprived not only of its capacity to act
229
705785
3211
E lipsit nu numai de capacitatea de a acționa,
11:48
but also of its capacity to think and to judge.
230
708996
3504
ci și de capacitatea de a gândi și de a judeca.
11:52
And with such a people you can then do what you please."
231
712959
3211
Și cu un astfel de popor poți face orice.”
11:56
That's a world I know none of us want,
232
716712
2044
E o lume pe care știu că nu o doriți
11:58
that I think we can prevent.
233
718798
2002
și care cred că poate fi prevenită.
12:00
Thanks.
234
720800
1168
Mulțumesc.
12:02
(Cheers and applause)
235
722009
2544
(Urale şi aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7