The moral bias behind your search results | Andreas Ekström

145,437 views ・ 2015-12-07

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Cristina Nicolae Corector: Lorena Ciutacu
00:13
So whenever I visit a school and talk to students,
0
13087
2493
Când vizitez o şcoală şi le vorbesc elevilor,
00:15
I always ask them the same thing:
1
15604
2143
le pun această întrebare:
00:18
Why do you Google?
2
18754
1434
De ce daţi căutare pe Google?
00:20
Why is Google the search engine of choice for you?
3
20624
3397
De ce preferaţi Google?
00:24
Strangely enough, I always get the same three answers.
4
24855
2552
Surprinzător, mereu primesc aceleaşi trei răspunsuri:
00:27
One, "Because it works,"
5
27431
2039
Primul: „Pentru că funcţionează.”
00:29
which is a great answer; that's why I Google, too.
6
29494
2906
E un răspuns excelent; de-asta folosesc și eu Google.
00:32
Two, somebody will say,
7
32424
2033
Al doilea, cineva va zice:
00:34
"I really don't know of any alternatives."
8
34481
2640
„Nu știu alternative.”
00:37
It's not an equally great answer and my reply to that is usually,
9
37708
3128
Nu e o variantă la fel de bună, iar răspunsul meu e de obicei:
00:40
"Try to Google the word 'search engine,'
10
40860
1921
„Încearcă ‘motor de căutare’ pe Google,
00:42
you may find a couple of interesting alternatives."
11
42805
2402
poate găseşti câteva alternative interesante.”
00:45
And last but not least, thirdly,
12
45231
2095
Iar a treia variantă de răspuns -
00:47
inevitably, one student will raise her or his hand and say,
13
47350
3310
inevitabil, un elev va ridica mâna şi va zice:
00:50
"With Google, I'm certain to always get the best, unbiased search result."
14
50684
5183
„Cu Google, sunt sigur că voi obţine cel mai bun rezultat imparţial.”
00:57
Certain to always get the best, unbiased search result.
15
57157
6506
Sigur că se obţine cel mai bun rezultat imparţial.
01:05
Now, as a man of the humanities,
16
65091
2390
Ca om al ştiinţelor umane,
01:07
albeit a digital humanities man,
17
67505
2181
deși unul al științelor umane digitale,
01:09
that just makes my skin curl,
18
69710
1738
mă cutremur când aud asta,
01:11
even if I, too, realize that that trust, that idea of the unbiased search result
19
71472
4886
chiar dacă şi eu realizez că încrederea în ideea unei căutări imparţiale
01:16
is a cornerstone in our collective love for and appreciation of Google.
20
76382
3855
stă la baza admiraţiei şi iubirii noastre colective pentru Google.
01:20
I will show you why that, philosophically, is almost an impossibility.
21
80658
4258
Am să vă demonstrez de ce asta este aproape o imposibilitate filosofică.
01:24
But let me first elaborate, just a little bit, on a basic principle
22
84940
3254
Mai întâi, permiteți-mi să vorbesc despre un principiu fundamental
01:28
behind each search query that we sometimes seem to forget.
23
88218
3113
ce stă la baza fiecărei căutări, dar de care uităm adesea.
01:31
So whenever you set out to Google something,
24
91851
2080
Atunci când daţi o căutare pe Google,
01:33
start by asking yourself this: "Am I looking for an isolated fact?"
25
93955
3927
începeţi prin a vă întreba: „Caut un fapt izolat?"
01:38
What is the capital of France?
26
98334
3161
Care este capitala Franţei?
01:41
What are the building blocks of a water molecule?
27
101519
2425
Din ce e alcătuită o moleculă de apă?
01:43
Great -- Google away.
28
103968
2341
Super - căutaţi în voie.
01:46
There's not a group of scientists who are this close to proving
29
106333
3120
Nu există niciun grup de specialişti aproape de a demostra
01:49
that it's actually London and H30.
30
109477
1997
că e vorba, de fapt, depre Londra şi H3O.
01:51
You don't see a big conspiracy among those things.
31
111498
2371
Nu vedem nicio conspiraţie în aceste lucruri.
01:53
We agree, on a global scale,
32
113893
1533
Suntem de acord global
01:55
what the answers are to these isolated facts.
33
115450
2725
cu răspunsurile la aceste fapte izolate.
01:58
But if you complicate your question just a little bit and ask something like,
34
118199
5302
Dar dacă aveţi o întrebare puţin mai complicată precum:
02:03
"Why is there an Israeli-Palestine conflict?"
35
123525
2683
„De ce există un conflict palestino-israelian?”,
02:06
You're not exactly looking for a singular fact anymore,
36
126978
2640
nu mai sunteţi în căutarea unui fapt singular,
02:09
you're looking for knowledge,
37
129642
1833
sunteţi în căutare de cunoştinţe,
02:11
which is something way more complicated and delicate.
38
131499
2578
ceva mult mai complicat şi mai delicat.
02:14
And to get to knowledge,
39
134600
1549
Pentru a ajunge la cunoştinţe,
02:16
you have to bring 10 or 20 or 100 facts to the table
40
136173
3031
trebuie să incluzi 10, 20 sau 100 de fapte în ecuaţie,
02:19
and acknowledge them and say, "Yes, these are all true."
41
139228
2976
să le confirmi şi să spui: „Da, toate astea sunt adevăruri.”
02:22
But because of who I am,
42
142228
1674
Însă datorită identităţii mele,
02:23
young or old, black or white, gay or straight,
43
143926
2270
tânăr sau bătrân, negru sau alb, gay sau hetero,
02:26
I will value them differently.
44
146220
1611
le voi evalua diferit.
02:27
And I will say, "Yes, this is true,
45
147855
1688
Și voi spune: „Da, asta e adevărat,
02:29
but this is more important to me than that."
46
149567
2114
dar acest lucru e mai important decât acela."
02:31
And this is where it becomes interesting,
47
151705
1990
În acea clipă lucrurile devin interesante,
02:33
because this is where we become human.
48
153719
2146
fiindcă atunci devenim umani.
02:35
This is when we start to argue, to form society.
49
155889
2996
Atunci începem să dezbatem, să formăm societatea.
02:38
And to really get somewhere, we need to filter all our facts here,
50
158909
3357
Iar pentru a putea ajunge undeva, trebuie să filtrăm totul aici,
02:42
through friends and neighbors and parents and children
51
162290
2556
prin prieteni şi vecini, părinţi şi copii,
02:44
and coworkers and newspapers and magazines,
52
164870
2032
colegi de muncă, ziare şi reviste,
02:46
to finally be grounded in real knowledge,
53
166926
3080
ca să avem la final o bază reală de cunoaştere,
02:50
which is something that a search engine is a poor help to achieve.
54
170030
4047
un lucru la care motoarele de căutare nu prea ne ajută.
02:55
So, I promised you an example just to show you why it's so hard
55
175284
6328
Deci v-am promis un exemplu pentru a demonstra dificultatea
03:01
to get to the point of true, clean, objective knowledge --
56
181636
3404
de a ajunge la o cunoştere adevărată, curată şi obiectivă -
03:05
as food for thought.
57
185064
1468
luaţi-o ca şi temă de gândire.
03:06
I will conduct a couple of simple queries, search queries.
58
186556
3893
O să efectuez două căutări simple.
03:10
We'll start with "Michelle Obama,"
59
190473
4040
Începem cu „Michelle Obama”,
03:14
the First Lady of the United States.
60
194537
1804
Prima Doamnă a Statelor Unite.
03:16
And we'll click for pictures.
61
196365
1729
Şi o să căutăm imagini.
03:19
It works really well, as you can see.
62
199007
2272
După cum vedeţi, funcţionează foarte bine.
03:21
It's a perfect search result, more or less.
63
201303
3028
E mai mult sau mai puţin un rezultat perfect al căutării.
03:24
It's just her in the picture, not even the President.
64
204355
2750
Nici măcar preşedintele nu apare în imagini, doar ea.
03:27
How does this work?
65
207664
1313
Cum funcţionează asta?
03:29
Quite simple.
66
209837
1372
Destul de simplu.
03:31
Google uses a lot of smartness to achieve this, but quite simply,
67
211233
3215
Google foloseşte multă inteligenţă
pentru a obține asta, dar, în principal,
03:34
they look at two things more than anything.
68
214472
2060
e atent la două lucruri:
03:36
First, what does it say in the caption under the picture on each website?
69
216556
5156
Mai întâi, ce titlu au imaginile de pe fiecare site?
03:41
Does it say "Michelle Obama" under the picture?
70
221736
2215
Scrie „Michelle Obama” sub imagine?
03:43
Pretty good indication it's actually her on there.
71
223975
2356
Acesta ar fi un indiciu bun că e ea în imagine.
03:46
Second, Google looks at the picture file,
72
226355
2386
Apoi, Google se uită la fişierul imagine,
03:48
the name of the file as such uploaded to the website.
73
228765
3032
numele fişierului aşa cum a fost el încărcat pe Internet.
03:51
Again, is it called "MichelleObama.jpeg"?
74
231821
2669
Din nou, se numeşte imaginea „MichelleObama.jpeg”?
03:54
Pretty good indication it's not Clint Eastwood in the picture.
75
234839
2922
Dacă da, cel mai probabil nu e Clint Eastwood în ea.
03:57
So, you've got those two and you get a search result like this -- almost.
76
237785
4265
Deci avem aceste două criterii şi obţinem acest rezultat - aproape.
04:02
Now, in 2009, Michelle Obama was the victim of a racist campaign,
77
242074
6603
În 2009, Michelle Obama a fost victima unei campanii rasiste.
04:08
where people set out to insult her through her search results.
78
248701
4015
Oamenii doreau să o insulte prin rezultatele la căutările numelui ei.
04:13
There was a picture distributed widely over the Internet
79
253430
2702
O anumită imagine s-a răspândit larg pe Internet,
04:16
where her face was distorted to look like a monkey.
80
256156
2644
una în care faţa ei e făcută să semene cu o maimuţă.
04:18
And that picture was published all over.
81
258824
3169
Imaginea a fost publicată peste tot.
04:22
And people published it very, very purposefully,
82
262017
3761
Oamenii o publicau cu intenţia clară de a fi prima
04:25
to get it up there in the search results.
83
265802
1971
la rezultatele de căutare.
04:27
They made sure to write "Michelle Obama" in the caption
84
267797
2955
S-au asigurat să pună titlul “Michelle Obama”
şi să încarce imaginea
04:30
and they made sure to upload the picture as "MichelleObama.jpeg," or the like.
85
270776
4177
ca “MichelleObama.jpeg” sau ceva similar.
04:34
You get why -- to manipulate the search result.
86
274977
2367
Aţi înţeles de ce:
să manipuleze rezultatele.
04:37
And it worked, too.
87
277368
1295
Şi a mers.
04:38
So when you picture-Googled for "Michelle Obama" in 2009,
88
278687
2720
Astfel, dacă în 2009 căutaţi “Michelle Obama” pe Google imagini
04:41
that distorted monkey picture showed up among the first results.
89
281431
3387
acea imagine distorsionată apărea printre primele rezultate.
04:44
Now, the results are self-cleansing,
90
284842
3566
Dar, rezultatele căutărilor se auto-corectează,
04:48
and that's sort of the beauty of it,
91
288432
1753
în aceasta constă de fapt frumuseţea lor,
04:50
because Google measures relevance every hour, every day.
92
290209
3403
pentru că Google le măsoară relevanţă în fiecare oră, fiecare zi.
04:53
However, Google didn't settle for that this time,
93
293636
2714
În acest caz însă, Google nu s-a mulţumit doar cu atât.
04:56
they just thought, "That's racist and it's a bad search result
94
296374
3124
A zis: “Asta e rasism şi un rezultat de căutare prost.
04:59
and we're going to go back and clean that up manually.
95
299522
3135
O să curăţăm rezultatele manual.
05:02
We are going to write some code and fix it,"
96
302681
2932
O să codăm ceva şi o să rezolvăm problema.
05:05
which they did.
97
305637
1247
Şi au reuşit.
05:07
And I don't think anyone in this room thinks that was a bad idea.
98
307454
3742
Nu cred că se afla cineva aici care să creadă că a fost o idee rea.
05:11
Me neither.
99
311789
1164
Nici eu nu cred.
05:14
But then, a couple of years go by,
100
314802
3032
Însă după doi ani,
05:17
and the world's most-Googled Anders,
101
317858
2984
cel mai căutat Anders de pe Google,
05:20
Anders Behring Breivik,
102
320866
2279
anume Anders Behring Breivik,
05:23
did what he did.
103
323169
1706
a făcut ce a făcut.
05:24
This is July 22 in 2011,
104
324899
2001
E 22 iulie 2011,
05:26
and a terrible day in Norwegian history.
105
326924
2649
o zi înfiorătoare în istoria Norvegiei.
05:29
This man, a terrorist, blew up a couple of government buildings
106
329597
3787
Acest individ, un terorist, a atacat două clădiri guvernamentale
05:33
walking distance from where we are right now in Oslo, Norway
107
333408
2883
aproape de locul unde ne aflăm acum în Oslo, Norvegia
05:36
and then he traveled to the island of Utøya
108
336315
2051
Apoi a călătorit în insula Utøya
05:38
and shot and killed a group of kids.
109
338390
2223
unde a împuşcat mortal un grup de copii.
05:41
Almost 80 people died that day.
110
341113
1728
Aproape 80 de persoane au murit atunci.
05:44
And a lot of people would describe this act of terror as two steps,
111
344397
4559
Mulţi ar zice ca actul terorist a avut două etape,
05:48
that he did two things: he blew up the buildings and he shot those kids.
112
348980
3411
că teroristul a comis două fapte: a detonat clădirile şi a ucis copiii.
05:52
It's not true.
113
352415
1165
Nu este adevărat.
05:54
It was three steps.
114
354326
2143
Au fost trei etape.
05:56
He blew up those buildings, he shot those kids,
115
356493
2214
A detonat clădirile, a împușcat acei copii
05:58
and he sat down and waited for the world to Google him.
116
358731
3644
apoi a stat şi a aşteptat ca lumea să îl caute pe Google.
06:03
And he prepared all three steps equally well.
117
363227
2627
A pregătit toţi cei trei paşi la fel de atent.
06:06
And if there was somebody who immediately understood this,
118
366544
2790
Cineva a înţeles imediat acest lucru,
un dezvoltator web suedez, un expert
06:09
it was a Swedish web developer,
119
369358
1524
06:10
a search engine optimization expert in Stockholm, named Nikke Lindqvist.
120
370906
3623
în optimizarea motoarelor de căutare
din Stockholm, pe nume Nikke Lindqvist.
06:14
He's also a very political guy
121
374553
1588
El este şi activ politic,
06:16
and he was right out there in social media, on his blog and Facebook.
122
376165
3276
prezent pe reţele de socializare, pe blogul lui şi pe Facebook.
06:19
And he told everybody,
123
379465
1206
A spus tuturor:
06:20
"If there's something that this guy wants right now,
124
380695
2455
“Ceea ce îşi doreşte acest om cel mai mult acum
06:23
it's to control the image of himself.
125
383174
2459
este să îşi controleze imaginea publică.
06:26
Let's see if we can distort that.
126
386760
1960
Să vedem dacă reuşim să încurcăm asta,
06:29
Let's see if we, in the civilized world, can protest against what he did
127
389490
3977
dacă noi, lumea civilizată, reuşim să protestăm împotriva a ceea ce a făcut
06:33
through insulting him in his search results."
128
393491
3317
prin a-l insulta în rezultatele lui de căutare.
06:36
And how?
129
396832
1187
Dar cum?
06:38
He told all of his readers the following,
130
398797
2056
Le-a spus cititorilor lui următoarele:
06:40
"Go out there on the Internet,
131
400877
1864
Intraţi pe internet,
06:42
find pictures of dog poop on sidewalks --
132
402765
2895
şi găsiţi imagini cu excremente de câine pe trotuar,
06:46
find pictures of dog poop on sidewalks --
133
406708
2174
06:48
publish them in your feeds, on your websites, on your blogs.
134
408906
3470
publicaţi-le în postările, blogurile şi site-urile voastre.
06:52
Make sure to write the terrorist's name in the caption,
135
412400
2921
Asiguraţi-vă să scrieţi numele teroristului în titlu,
06:55
make sure to name the picture file "Breivik.jpeg."
136
415345
4487
asiguraţi-vă să denumiţi fişierul “Breivik.jpeg.”
06:59
Let's teach Google that that's the face of the terrorist."
137
419856
3801
Haideţi să-l învăţăm pe Google că aceasta e faţa unui terorist.
07:05
And it worked.
138
425552
1278
Şi a funcţionat.
07:07
Two years after that campaign against Michelle Obama,
139
427853
2898
La doi ani după campania împotriva lui Michelle Obama,
07:10
this manipulation campaign against Anders Behring Breivik worked.
140
430775
3266
campania de manipulare împotriva lui Anders Breivik a funcţionat.
07:14
If you picture-Googled for him weeks after the July 22 events from Sweden,
141
434065
4462
Câteva săptămâni după incidentul din 22 iulie, căutarea imaginii lui
07:18
you'd see that picture of dog poop high up in the search results,
142
438551
4327
dădea în fruntea rezultatelor imagini cu excremente de câine,
07:22
as a little protest.
143
442902
1444
în semn de protest.
07:25
Strangely enough, Google didn't intervene this time.
144
445425
4132
Straniu, de această dată Google nu a intervenit.
07:30
They did not step in and manually clean those search results up.
145
450494
4272
Nu au acţionat să cureţe manual acele rezultate de căutare.
07:35
So the million-dollar question,
146
455964
1716
Deci întrebarea fundamentală:
07:37
is there anything different between these two happenings here?
147
457704
3368
Există vreo diferenţă între cele două campanii prezentate?
07:41
Is there anything different between what happened to Michelle Obama
148
461096
3193
Există vreo diferenţă între ce a păţit Michelle Obama şi Anders Breivik?
07:44
and what happened to Anders Behring Breivik?
149
464313
2065
07:46
Of course not.
150
466402
1284
Desigur că nu.
07:48
It's the exact same thing,
151
468861
1471
Este exact aceeaşi situaţie
07:50
yet Google intervened in one case and not in the other.
152
470356
2864
Dar Google a intervenit
într-un caz, nu şi în celălalt.
07:53
Why?
153
473244
1253
De ce?
07:55
Because Michelle Obama is an honorable person, that's why,
154
475283
3300
Pentru că Michelle Obama este o persoană onorabilă,
07:58
and Anders Behring Breivik is a despicable person.
155
478607
2916
iar Anders Behring Breivik este demn de dispreţ.
08:02
See what happens there?
156
482142
1535
Înţelegeţi ce se întâmplă?
08:03
An evaluation of a person takes place
157
483701
3255
Are loc o evaluare a persoanei,
08:06
and there's only one power-player in the world
158
486980
3786
şi există un singur actor de putere în lume autorizat să facă asta,
08:10
with the authority to say who's who.
159
490790
2480
să decidă:
“Ne place de tine, nu ne place de tine.
08:13
"We like you, we dislike you.
160
493882
1741
08:15
We believe in you, we don't believe in you.
161
495647
2039
Credem în tine, dar nu în tine.
08:17
You're right, you're wrong. You're true, you're false.
162
497710
2547
Tu ai dreptate, tu nu.
Tu ești adevat, tu fals.
Tu eşti Obama, tu eşti Breivik.
08:20
You're Obama, and you're Breivik."
163
500281
1805
08:22
That's power if I ever saw it.
164
502791
2000
Asta da putere.
08:27
So I'm asking you to remember that behind every algorithm
165
507206
3652
Așadar vă îndemn să ţineti cont că în spatele fiecărui algoritm
08:30
is always a person,
166
510882
1777
se află o persoană,
08:32
a person with a set of personal beliefs
167
512683
2495
cineva cu un set de valori personale
08:35
that no code can ever completely eradicate.
168
515202
2525
pe care nici un cod nu îl poate elimina complet.
08:37
And my message goes out not only to Google,
169
517751
2434
Mesajul meu nu este îndreptat nu doar către Google,
08:40
but to all believers in the faith of code around the world.
170
520209
2810
ci către toţi cei cred în soarta codurilor.
08:43
You need to identify your own personal bias.
171
523043
2976
Trebuie să vă identificaţii propriile voastre prejudecăţi
08:46
You need to understand that you are human
172
526043
2013
trebuie să înţelegeţi că sunteţi oameni
08:48
and take responsibility accordingly.
173
528080
2491
şi să vă asumaţi responsabilitatea corespunzător.
08:51
And I say this because I believe we've reached a point in time
174
531891
2938
Şi spun asta fiindcă cred că am ajuns într-o etapă în care
08:54
when it's absolutely imperative
175
534853
1555
este absolut imperativ
08:56
that we tie those bonds together again, tighter:
176
536432
3217
să înnodăm din nou mai strâns acea legătură
08:59
the humanities and the technology.
177
539673
2368
dintre ştiinţele umane şi tehnologie,
09:02
Tighter than ever.
178
542483
1805
mai strâns ca niciodată.
09:04
And, if nothing else, to remind us that that wonderfully seductive idea
179
544312
3339
Măcar ca să ne amintească că acea idee atât de atrăgătoare
09:07
of the unbiased, clean search result
180
547675
2668
a unui rezultat de căutare imparţial, curat
09:10
is, and is likely to remain, a myth.
181
550367
2767
este, şi probabil va rămâne, un mit.
09:13
Thank you for your time.
182
553984
1159
Vă mulţumesc pentru timpul acordat.
09:15
(Applause)
183
555167
2432
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7