We're building a dystopia just to make people click on ads | Zeynep Tufekci

739,815 views ・ 2017-11-17

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Shlomo Adam מבקר: Ido Dekkers
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
כשאנשים מבטאים פחדים מפני תבונה המלאכותית,
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
הם מרבים להעלות דימויים של רובוטים דמויי-אדם שיוצאים משליטה.
00:20
You know? Terminator?
2
20320
1240
כמו ב"שליחות קטלנית".
00:22
You know, that might be something to consider,
3
22400
2336
אולי צריך לתת על זה את הדעת,
00:24
but that's a distant threat.
4
24760
1856
אבל זהו איום רחוק.
00:26
Or, we fret about digital surveillance
5
26640
3456
או שהם מתרגזים על המעקב הדיגיטלי
ומביאים דימויים מהעבר.
00:30
with metaphors from the past.
6
30120
1776
00:31
"1984," George Orwell's "1984,"
7
31920
2656
"1984" של ג'ורג' אורוול
00:34
it's hitting the bestseller lists again.
8
34600
2280
מטפס שוב ברשימת רבי המכר.
00:37
It's a great book,
9
37960
1416
זהו ספר נהדר,
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
אבל זה איננו התיאור הנכון של הדיסטופיה במאה ה-21.
00:44
What we need to fear most
11
44080
1416
עלינו לחשוש יותר מכל
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
לא ממה שהתבונה המלאכותית תעולל לנו בעצמה,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
אלא מהאופן שבו אנשים בעמדות כוח ינצלו את התבונה המלאכותית
כדי לשלוט בנו ולנהל אותנו
00:55
to control us and to manipulate us
14
55080
2816
00:57
in novel, sometimes hidden,
15
57920
3136
בדרכים חדשניות, סמויות לעתים, ערמומיות ולא-צפויות.
01:01
subtle and unexpected ways.
16
61080
3016
01:04
Much of the technology
17
64120
1856
הרבה מהטכנולוגיה
שמאיימת על חירותנו וכבודנו בעתיד הקרוב
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
01:10
is being developed by companies
19
70360
1856
מפותחת בידי חברות
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
שעוסקות בלכידת ומכירת הנתונים ומוקדי תשומת ליבנו
01:17
to advertisers and others:
21
77200
2256
למפרסמים ועוד:
01:19
Facebook, Google, Amazon,
22
79480
3416
"פייסבוק", "גוגל", "אמזון", "עליבאבה", "טנסט".
01:22
Alibaba, Tencent.
23
82920
1880
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
גם עסקי התבונה המלאכותית החלו להתעצם.
01:31
And it may seem like artificial intelligence
25
91560
2096
ואולי נראה שהתבונה המלאכותית היא פשוט הלהיט הבא, אחרי פרסומות מקוונות.
01:33
is just the next thing after online ads.
26
93680
2856
01:36
It's not.
27
96560
1216
היא לא.
01:37
It's a jump in category.
28
97800
2456
זאת עליית קטגוריה.
01:40
It's a whole different world,
29
100280
2576
זהו עולם אחר לגמרי,
01:42
and it has great potential.
30
102880
2616
וטמון בה פוטנציאל גדול;
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
היא יכולה להאיץ את הבנתנו בתחומי לימוד ומחקר רבים.
אבל כפרפראזה על דבריו של פילוסוף הוליוודי ידוע,
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
"פוטנציאל עצום מביא עימו סכנות עצומות."
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
הבה נבחן עובדה בסיסית מחיינו הדיגיטליים: פרסומות מקוונות.
בסדר? אנו פוטרים אותן כלאחר-יד.
02:05
Right? We kind of dismiss them.
35
125080
2896
הן נראות גולמיות, לא-אפקטיביות.
02:08
They seem crude, ineffective.
36
128000
1976
כולנו רגילים שעוקבים אחרינו ברשת
02:10
We've all had the experience of being followed on the web
37
130000
4256
02:14
by an ad based on something we searched or read.
38
134280
2776
בפרסומות שמבוססות על משהו שחיפשנו או קראנו.
למשל, את מחפשת זוג מגפיים,
02:17
You know, you look up a pair of boots
39
137080
1856
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
ובמשך שבוע המגפיים האלה עוקבים אחרייך לכל מקום.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
גם אחרי שאת נכנעת וקונה אותם, הם עדיין מסתובבים אחרייך.
אנו די מחוסנים למניפולציה בסיסית וזולה כזאת.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
אנו מגלגלים את עינינו ואומרים, "הדברים האלה לא עובדים."
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
02:33
Except, online,
44
153720
2096
אבל באינטרנט
02:35
the digital technologies are not just ads.
45
155840
3600
הטכנולוגיות הדיגיטליות אינן רק פרסומות.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
כדי להבין זאת, הבה ניקח דוגמה מהעולם הממשי.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
מכירים את זה שבקופות במרכול, ליד הקופות,
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
יש תמיד סוכריות ומסטיקים בגובה עיני הילדים?
02:52
That's designed to make them whine at their parents
49
172800
3496
זה מתוכנן כדי לגרום להם ליילל להוריהם
02:56
just as the parents are about to sort of check out.
50
176320
3080
בדיוק כשההורים עומדים לשלם.
זאת ארכיטקטורה של שכנוע.
03:00
Now, that's a persuasion architecture.
51
180040
2640
03:03
It's not nice, but it kind of works.
52
183160
3096
היא לא נחמדה, אבל היא איכשהו עובדת
03:06
That's why you see it in every supermarket.
53
186280
2040
ולכן רואים אותה בכל מרכול.
03:08
Now, in the physical world,
54
188720
1696
בעולם הממשי,
03:10
such persuasion architectures are kind of limited,
55
190440
2496
ארכיטקטורות שכנוע כאלה הן מוגבלות למדי,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
כי יש גבול לכמות הדברים שאפשר למקם ליד הקופה, נכון?
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
וכולם רואים את אותם ממתקים ומסטיקים,
גם אם זה בעיקר עובד
03:22
even though it mostly works
58
202120
1456
03:23
only for people who have whiny little humans beside them.
59
203600
4040
על אנשים שבני-אדם קטנים מייללים לצידם.
בעולם הממשי אנו חיים עם המגבלות האלה.
03:29
In the physical world, we live with those limitations.
60
209160
3920
03:34
In the digital world, though,
61
214280
1936
אבל בעולם הדיגיטלי
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
אפשר לבנות ארכיטקטורות שכנוע בהיקף של מיליארדים
03:41
and they can target, infer, understand
63
221840
3856
והן יודעות לקלוע, להסיק, להבין
03:45
and be deployed at individuals
64
225720
2896
ולהיות מופנות לבני-אדם בודדים,
03:48
one by one
65
228640
1216
אחד-אחד,
03:49
by figuring out your weaknesses,
66
229880
2136
בכך שהן מגלות את החולשות שלכם,
וניתן לשגר אותן למסך הטלפון הפרטי,
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
03:57
so it's not visible to us.
68
237680
2256
כך שזה לא גלוי לכולנו.
03:59
And that's different.
69
239960
1256
וזה שונה.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
וזה רק אחד הדברים הפשוטים שהתבונה המלאכותית מסוגלת לעשות.
04:04
Now, let's take an example.
71
244840
1336
ניקח דוגמה.
נניח שאתם רוצים למכור כרטיסי טיסה לווגאס, בסדר?
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
בעולם הישן הייתם עושים מיקוד לפי פילוח דמוגרפי
04:12
based on experience and what you can guess.
74
252440
2520
על סמך נסיון וניחושים.
04:15
You might try to advertise to, oh,
75
255560
2816
הייתם אולי פונים בפרסומת, למשל,
04:18
men between the ages of 25 and 35,
76
258400
2496
לגברים בגילאי 25 עד 35,
04:20
or people who have a high limit on their credit card,
77
260920
3936
או אנשים עם אשראי גבוה,
04:24
or retired couples. Right?
78
264880
1376
או זוגות בגמלאות, נכון?
04:26
That's what you would do in the past.
79
266280
1816
זה מה שהייתם עושים פעם.
עם נתוני עתק ולמידת מכונה,
04:28
With big data and machine learning,
80
268120
2896
זה כבר לא עובד ככה.
04:31
that's not how it works anymore.
81
271040
1524
04:33
So to imagine that,
82
273320
2176
כדי לדמיין את זה,
04:35
think of all the data that Facebook has on you:
83
275520
3856
חישבו על כל הנתונים שיש ל"פייסבוק" עליכם:
04:39
every status update you ever typed,
84
279400
2536
כל עדכון סטטוס שהקלדתם,
04:41
every Messenger conversation,
85
281960
2016
כל שיחה ב"מסנג'ר",
כל מקום ממנו נכנסתם לחשבונכם,
04:44
every place you logged in from,
86
284000
1880
04:48
all your photographs that you uploaded there.
87
288400
3176
כל הצילומים שהעליתם לשם,
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
אם התחלתם להקליד משהו, שיניתם את דעתכם ומחקתם אותו,
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
"פייסבוק" שומרת ומנתחת גם את זה.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
היא תנסה יותר ויותר להתאים ביניכם לבין נתוניכם הבלתי-מקוונים.
היא גם רוכשת הרבה נתונים מסחרני מידע.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
05:06
It could be everything from your financial records
92
306320
3416
זה יכול להיות הכל, החל מהרשומות הפיננסיות שלכם
05:09
to a good chunk of your browsing history.
93
309760
2120
ועד לנתח רציני מהיסטוריית הגלישה שלכם.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
בארה"ב, נתונים כאלה נאספים, מושווים ונמכרים דרך שגרה,
05:17
collated and sold.
95
317800
1960
05:20
In Europe, they have tougher rules.
96
320320
2440
באירופה, החוקים נוקשים יותר.
05:23
So what happens then is,
97
323680
2200
וכעת מה שקורה הוא,
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
האלגוריתמים של למידת המכונה האלה חופרים בכל הנתונים הללו --
05:30
that's why they're called learning algorithms --
99
330960
2896
בגלל זה קוראים להם "אלגוריתמים של למידת מכונה" --
05:33
they learn to understand the characteristics of people
100
333880
4096
והם לומדים להבין את המאפיינים של אנשים
שרכשו בעבר כרטיסים לווגאס.
05:38
who purchased tickets to Vegas before.
101
338000
2520
05:41
When they learn this from existing data,
102
341760
3536
כשהם לומדים זאת מנתונים קיימים,
05:45
they also learn how to apply this to new people.
103
345320
3816
הם גם לומדים ליישם זאת לאנשים חדשים.
אז כשמציגים להם מישהו חדש,
05:49
So if they're presented with a new person,
104
349160
3056
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
הם יודעים לסווג אותו, כמי שסביר שיקנה כרטיס לווגאס או לא.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
יופי. אתם חושבים, "הצעה לרכוש כרטיסים לווגאס?
"אני יכול להתעלם ממנה."
06:03
I can ignore that.
107
363200
1456
06:04
But the problem isn't that.
108
364680
2216
אבל לא זאת הבעיה.
06:06
The problem is,
109
366920
1576
הבעיה היא,
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
שכבר איננו מבינים באמת איך האלגוריתמים המסובכים האלה עובדים.
06:12
We don't understand how they're doing this categorization.
111
372680
3456
איננו מבינים איך הם מסווגים.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
מדובר במטריצות ענק, אלפי שורות ועמודות,
06:20
maybe millions of rows and columns,
113
380600
1960
אולי מיליוני שורות ועמודות,
06:23
and not the programmers
114
383320
2640
ולא המתכנתים
06:26
and not anybody who looks at it,
115
386760
1680
ולא מי שבוחן אותן,
06:29
even if you have all the data,
116
389440
1496
גם אם יש לו כל הנתונים,
06:30
understands anymore how exactly it's operating
117
390960
4616
כבר מבין באיזו רמת דיוק הם פועלים,
06:35
any more than you'd know what I was thinking right now
118
395600
3776
כפי שאינכם יודעים מה אני חושבת כרגע
06:39
if you were shown a cross section of my brain.
119
399400
3960
אילו הראו לכם חתך-רוחב של המוח שלי.
06:44
It's like we're not programming anymore,
120
404360
2576
זה כאילו שאיננו מתכנתים יותר,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
אנו מגדלים תבונה
שאיננו באמת מבינים.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
והדברים האלה עובדים רק אם כמות הנתונים עצומה,
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
ולכן הם גם מעודדים מעקב מעמיק אחרי כולנו
07:01
so that the machine learning algorithms can work.
124
421640
2336
כדי שהאלגוריתמים של למידת המכונה יוכלו לפעול כהלכה.
זו הסיבה ש"פייסבוק" רוצה לאסוף עליכם נתונים רבים ככל שתוכל:
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
07:07
The algorithms work better.
126
427200
1576
האלגוריתמים יעבדו טוב יותר.
07:08
So let's push that Vegas example a bit.
127
428800
2696
בואו נעלה מדרגה בדוגמה של ווגאס.
07:11
What if the system that we do not understand
128
431520
3680
מה אם המערכת שאיננו מבינים
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
החליטה שקל יותר למכור כרטיסים לווגאס
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
לאנשים דו-קוטביים שעומדים לעבור למאניה.
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
אנשים כאלה נוטים להיות בזבזנים מדי, מהמרים כפייתיים.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
היא תוכל לעשות זאת, ולא יהיה לכם מושג שכך היא החליטה.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
פעם נתתי את הדוגמה הזאת לקבוצת מדעני מחשבים
07:39
and afterwards, one of them came up to me.
134
459400
2056
ואחר-כך אחד מהם ניגש אלי.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
הוא היה נסער, ואמר, "בגלל זה לא יכולתי לפרסם את זה."
07:45
I was like, "Couldn't publish what?"
136
465600
1715
שאלתי, "לפרסם את מה?"
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
הוא ניסה לראות אם אכן אפשר לזהות את תחילת השלב המאני
07:53
from social media posts before clinical symptoms,
138
473680
3216
מפוסטים במדיה החברתית עוד לפני התסמינים הרפואיים,
07:56
and it had worked,
139
476920
1776
וזה הצליח לו,
07:58
and it had worked very well,
140
478720
2056
זה הצליח לו ממש טוב.
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
ולא היה לו מושג איך זה עבד או לפי מה.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
הבעיה אינה פתורה רק כי הוא לא פירסם את זה,
08:11
because there are already companies
143
491280
1896
כי כבר יש חברות שמפתחות טכנולוגיה כזאת,
08:13
that are developing this kind of technology,
144
493200
2536
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
והרבה מהמוצרים שלהן נחטפים מהמדפים.
08:19
This is not very difficult anymore.
146
499240
2576
זה כבר לא קשה במיוחד.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
יוצא לכם להיכנס ל"יו-טיוב" כדי לראות סרטון אחד
08:25
and an hour later you've watched 27?
148
505320
2360
ואחרי שעה צפיתם כבר ב-27 כאלה?
08:28
You know how YouTube has this column on the right
149
508760
2496
מכירים את זה שב"יו-טיוב" יש בצד ימין עמודה
08:31
that says, "Up next"
150
511280
2216
שכתוב בה: "הסרטון הבא"
08:33
and it autoplays something?
151
513520
1816
והוא מוקרן באופן אוטומטי?
08:35
It's an algorithm
152
515360
1216
זהו אלגוריתם
08:36
picking what it thinks that you might be interested in
153
516600
3616
שבוחר מה שלדעתו עשוי לעניין אתכם
08:40
and maybe not find on your own.
154
520240
1536
ושאולי לא תחפשו בעצמכם.
08:41
It's not a human editor.
155
521800
1256
אין שם עורך אנושי.
זה מה שאלגוריתמים עושים.
08:43
It's what algorithms do.
156
523080
1416
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
הם בוחרים לפי מה שראיתם ומה שראו אנשים כמוכם,
08:49
and infers that that must be what you're interested in,
158
529280
4216
ומסיקים שזה בוודאי מה שיעניין אתכם,
08:53
what you want more of,
159
533520
1255
ושאתם רוצים ממנו עוד,
08:54
and just shows you more.
160
534799
1336
והם פשוט מציגים לכם עוד.
זה נשמע כמו תכונה נחמדה ושימושית,
08:56
It sounds like a benign and useful feature,
161
536159
2201
08:59
except when it isn't.
162
539280
1200
אלא כשהיא לא.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
ב-2016 השתתפתי בעצרות של המועמד דאז, דונלד טראמפ
09:09
to study as a scholar the movement supporting him.
164
549840
3336
כדי לחקור, כמלומדת, את התנועה שתומכת בו.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
חקרתי אז תנועות חברתיות, וחקרתי גם את זאת.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
ואז רציתי לכתוב משהו על אחת העצרות שלו,
אז צפיתי בה כמה פעמים ב"יו-טיוב".
09:20
so I watched it a few times on YouTube.
167
560040
1960
09:23
YouTube started recommending to me
168
563240
3096
"יו-טיוב" החל להמליץ לי
09:26
and autoplaying to me white supremacist videos
169
566360
4256
ולהקרין לי אוטומטית סרטוני עליונות לבנה
09:30
in increasing order of extremism.
170
570640
2656
בקיצוניות הולכת וגוברת.
09:33
If I watched one,
171
573320
1816
אם צפיתי באחד מהם,
הערוץ הביא לי סרטון קיצוני עוד יותר
09:35
it served up one even more extreme
172
575160
2976
והקרין לי גם אותו אוטומטית.
09:38
and autoplayed that one, too.
173
578160
1424
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
אם צפיתם בתוכן של הילרי קלינטון או ברני סנדרס,
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
"יו-טיוב" ימליץ ויקרין לכם אוטומטית מזימות שמאלניות,
09:49
and it goes downhill from there.
176
589600
1760
ומשם זה רק יילך ויידרדר.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
אולי אתם חושבים, "ככה זה בפוליטיקה." אבל לא.
09:55
This isn't about politics.
178
595560
1256
לא מדובר כאן בפוליטיקה.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
זהו פשוט אלגוריתם שלומד התנהגות אנושית.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
ראיתי פעם סרטון ב"יו-טיוב" על צמחונות
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
ו"יו-טיוב" המליץ לי, והקרין אוטומטית סרטון על טבעונות.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
ההרגשה היא שאתה אף פעם לא מספיק קיצוני בשביל "יו-טיוב".
10:12
(Laughter)
183
612760
1576
(צחוק)
10:14
So what's going on?
184
614360
1560
אז מה קורה?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
האלגוריתם של "יו-טיוב" הוא קנייני,
אבל הנה מה שאני חושבת שקורה.
10:20
but here's what I think is going on.
186
620080
2360
10:23
The algorithm has figured out
187
623360
2096
האלגוריתם חישב ומצא
10:25
that if you can entice people
188
625480
3696
שאם אפשר לפתות אנשים לחשוב
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
שהם יוכלו לראות משהו קיצוני יותר,
10:32
they're more likely to stay on the site
190
632960
2416
סביר יותר שהם יישארו באתר
10:35
watching video after video going down that rabbit hole
191
635400
4416
ויצפו בסרטון אחרי סרטון תוך נפילה למאורת הארנב
10:39
while Google serves them ads.
192
639840
1680
בעוד "גוגל" מגיש להם פרסומות.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
כשאיש איננו משגיח על האתיקה בחנות,
10:47
these sites can profile people
194
647720
4240
האתרים האלה יכולים לאפיין אנשים
10:53
who are Jew haters,
195
653680
1920
שהם שונאי יהודים,
10:56
who think that Jews are parasites
196
656360
2480
שחושבים שהיהודים הם טפילים
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
והם יקבלו תוכן אנטישמי מפורש
ואפשר למקד אליהם פרסומות.
11:06
and let you target them with ads.
198
666080
2000
הם יכולים גם לגייס אלגוריתמים
11:09
They can also mobilize algorithms
199
669200
3536
11:12
to find for you look-alike audiences,
200
672760
3136
שימצאו עבורכם קהלים דומים,
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
אנשים שהאיפיון שלהם אינו כולל תוכן אנטישמי מפורש כזה,
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
אבל שהאלגוריתם זיהה שהם יהיו פתוחים למסרים כאלה,
11:27
and lets you target them with ads, too.
203
687720
1920
והוא יאפשר למקד גם אליהם פרסומות.
11:30
Now, this may sound like an implausible example,
204
690680
2736
זה אולי נשמע כמו דוגמה בלתי-סבירה,
11:33
but this is real.
205
693440
1320
אבל זה אמיתי.
11:35
ProPublica investigated this
206
695480
2136
"פרופבליקה" חקרו את זה,
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
ומצאו שאכן אפשר לעשות זאת ב"פייסבוק",
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
ו"פייסבוק" נעתרה ברצון והציעה הצעות
11:43
on how to broaden that audience.
209
703720
1600
איך להרחיב את הקהל הזה.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
"באזפיד" ניסו זאת על "גוגל", והם גילו מהר מאד
11:49
yep, you can do it on Google, too.
211
709760
1736
שכן, אפשר לעשות זאת גם ב"גוגל".
11:51
And it wasn't even expensive.
212
711520
1696
וזה לא היה אפילו יקר.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
הכתב של "פרופבליקה" הוציא כ-30 דולר
11:57
to target this category.
214
717680
2240
כדי למקד פרסום לקטגוריה הזאת.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
בשנה שעברה, מנהל המדיה החברתית של דולנד טראמפ גילה
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
שהם העלו פוסטים אפלים ל"פייסבוק" כדי להניא אנשים מלהצביע;
12:13
not to persuade them,
217
733280
1376
לא כדי לשכנע אותם,
12:14
but to convince them not to vote at all.
218
734680
2800
אלא כדי לשכנע אותם שלא להצביע כלל.
12:18
And to do that, they targeted specifically,
219
738520
3576
ולשם כך הם ביצעו מיקוד ספציפי,
למשל, גברים אפרו-אמריקנים בערים מרכזיות כמו פילדלפיה,
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
ואני אקריא בדיוק את מה שהוא אמר.
12:26
and I'm going to read exactly what he said.
221
746040
2456
12:28
I'm quoting.
222
748520
1216
אני מצטטת.
12:29
They were using "nonpublic posts
223
749760
3016
הם השתמשו ב"פוסטים לא-ציבוריים
12:32
whose viewership the campaign controls
224
752800
2176
"שמידרוג הצפיה שלהם במסע הבחירות קבע
12:35
so that only the people we want to see it see it.
225
755000
3776
"שרק אנשים שרוצים לראות זאת יראו זאת.
12:38
We modeled this.
226
758800
1216
"מידלנו את זה.
"זה ישפיע באופן דרמטי על יכולתה לשנות את דעותיהם."
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
12:45
What's in those dark posts?
228
765720
2280
מה יש בפוסטים האפלים האלה?
12:48
We have no idea.
229
768480
1656
אין לנו מושג.
12:50
Facebook won't tell us.
230
770160
1200
"פייסבוק" לא מגלה לנו.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
אז גם "פייסבוק" מארגנת בעזרת אלגוריתמים
את הפוסטים שחבריכם מעלים ל"פייסבוק", או את הדפים שאחריהם אתם עוקבים.
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
13:00
It doesn't show you everything chronologically.
233
780640
2216
היא לא מציגה הכל בסדר הכרונולוגי.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
אלא את הסדר שהאלגוריתם חושב שיפתה אתכם
13:07
to stay on the site longer.
235
787720
1840
להישאר יותר באתר.
13:11
Now, so this has a lot of consequences.
236
791040
3376
לכך יש המון השלכות.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
אולי נראה לכם שמישהו ב"פייסבוק" מזלזל בכם.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
האלגוריתם אולי לעולם לא יראה להם את הפוסט שלכם.
האלגוריתם מתעדף פוסטים מסוימים וקובר את היתר.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
13:29
Experiments show
240
809320
1296
ניסויים הוכיחו
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
שמה שהאלגוריתם בוחר להראות לכם עשוי להשפיע על רגשותיכם.
13:36
But that's not all.
242
816600
1200
אבל זה לא הכל.
13:38
It also affects political behavior.
243
818280
2360
זה גם משפיע על ההתנהגות הפוליטית.
13:41
So in 2010, in the midterm elections,
244
821360
4656
ב-2010, בבחירות אמצע הכהונה,
"פייסבוק" ערכה ניסוי על 61 מיליון בני-אדם בארה"ב
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
13:51
that was disclosed after the fact.
246
831960
1896
שפורסם רק מאוחר יותר.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
הם הציגו לאנשים מסוימים את "היום יום הבחירות,"
13:57
the simpler one,
248
837320
1376
הפשוט יותר,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
ואחרים ראו אותו עם שינוי זעיר:
14:02
with those little thumbnails
250
842640
2096
עם תמונות ממוזערות
14:04
of your friends who clicked on "I voted."
251
844760
2840
של חבריהם שהקליקו "הצבעתי".
שינוי פשוט.
14:09
This simple tweak.
252
849000
1400
14:11
OK? So the pictures were the only change,
253
851520
4296
בסדר? התמונות היו השינוי היחיד.
14:15
and that post shown just once
254
855840
3256
והפוסט הזה, שהוצג פעם אחת בלבד,
הוסיף עוד 340,000 מצביעים באותן בחירות
14:19
turned out an additional 340,000 voters
255
859120
6056
14:25
in that election,
256
865200
1696
14:26
according to this research
257
866920
1696
לפי המחקר הזה, כפי שרשימות המצביעים אישרו.
14:28
as confirmed by the voter rolls.
258
868640
2520
14:32
A fluke? No.
259
872920
1656
עניין של מזל? לא.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
כי ב-2012 הם חזרו על הניסוי הזה.
14:40
And that time,
261
880840
1736
והפעם,
14:42
that civic message shown just once
262
882600
3296
המסר האזרחי הזה, שהוצג רק פעם אחת,
14:45
turned out an additional 270,000 voters.
263
885920
4440
הוסיף 270,000 מצביעים.
14:51
For reference, the 2016 US presidential election
264
891160
5216
לצורך ייחוס, הבחירות לנשיאות ב-2016
14:56
was decided by about 100,000 votes.
265
896400
3520
הוכרעו ע"י כ-100,000 קולות.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
"פייסבוק" גם יכולה בקלות רבה להסיק מהן דעותיכם הפוליטיות,
גם אם מעולם לא ציינתם אותן באתר.
15:06
even if you've never disclosed them on the site.
267
906120
2256
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
נכון? האלגוריתמים האלה מסוגלים לכך די בקלות.
15:11
What if a platform with that kind of power
269
911960
3896
מה אם איזו פלטפורמה עם כוח כזה
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
תחליט להטות תומכי מועמד מסוים לצדד בשני?
15:21
How would we even know about it?
271
921680
2440
איך בכלל נדע על זה?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
התחלנו ממשהו לכאורה תמים למדי --
15:29
online adds following us around --
273
929720
2216
הפרסומות המקוונות שעוקבות אחרינו --
15:31
and we've landed someplace else.
274
931960
1840
והגענו למקום אחר לגמרי.
15:35
As a public and as citizens,
275
935480
2456
כציבור וכאזרחים,
15:37
we no longer know if we're seeing the same information
276
937960
3416
כבר איננו יודעים אם כולנו צופים באותו המידע
15:41
or what anybody else is seeing,
277
941400
1480
או במה צופים כל האחרים,
15:43
and without a common basis of information,
278
943680
2576
וללא בסיס משותף של מידע,
15:46
little by little,
279
946280
1616
לאט לאט,
15:47
public debate is becoming impossible,
280
947920
3216
הדיון הציבורי הופך בלתי-אפשרי,
15:51
and we're just at the beginning stages of this.
281
951160
2976
ואנו רק בשלבים הראשונים של זה.
האלגוריתמים האלה יודעים להסיק בקלות רבה
15:54
These algorithms can quite easily infer
282
954160
3456
15:57
things like your people's ethnicity,
283
957640
3256
דברים כמו אתניות,
16:00
religious and political views, personality traits,
284
960920
2336
השקפות דתיות ופוליטיות, תכונות אישיות,
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
אינטליגנציה, רמת אושר, שימוש בחומרים ממכרים,
16:06
parental separation, age and genders,
286
966680
3136
מצב הזוגיות, גיל ומגדר,
16:09
just from Facebook likes.
287
969840
1960
רק מ"פייסבוק" ודומיה.
16:13
These algorithms can identify protesters
288
973440
4056
האלגוריתמים האלה יודעים לזהות מפגינים
16:17
even if their faces are partially concealed.
289
977520
2760
גם אם פניהם מוסתרים חלקית.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
האלגוריתמים האלה אולי יודעים לזהות נטיות מיניות
16:28
just from their dating profile pictures.
291
988360
3200
רק מתוך תמונות בפרופיל ההיכרויות.
16:33
Now, these are probabilistic guesses,
292
993560
2616
נכון, מדובר בניחושים הסתברותיים,
והם לא יהיו נכונים ב-100%,
16:36
so they're not going to be 100 percent right,
293
996200
2896
אבל אני לא צופה שבעלי הכוח יעמדו בפיתוי לנצל טכנולוגיות אלה
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
רק בגלל כמה זיהויים שגויים,
16:44
just because there are some false positives,
295
1004040
2176
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
וזה כמובן ייצור רובד חדש לגמרי של בעיות .
16:49
Imagine what a state can do
297
1009520
2936
תארו לעצמכם מה מדינה יכולה לעשות
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
עם כמות הנתונים העצומה שיש לה על אזרחיה.
16:56
China is already using face detection technology
299
1016680
4776
סין כבר משתמשת בטכנולוגיית זיהוי פנים
17:01
to identify and arrest people.
300
1021480
2880
כדי לזהות ולעצור אנשים.
17:05
And here's the tragedy:
301
1025280
2136
והנה הטרגדיה:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
אנו בונים תשתית זו של עריצות מעקב
רק כדי לגרום לאנשים להקליק על פרסומות.
17:13
merely to get people to click on ads.
303
1033000
2960
וזו לא תהיה העריצות לפי אורוול;
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
17:19
This isn't "1984."
305
1039839
1897
זה לא "1984".
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
אם העריצות תפעיל הפחדה גלויה כדי להשליט טרור,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
כולנו נהיה מבוהלים, אבל נדע מה קורה.
17:29
we'll hate it and we'll resist it.
308
1049280
2200
נשנא את זה ונתנגד לזה.
17:32
But if the people in power are using these algorithms
309
1052880
4416
אבל אם בעלי השררה משתמשים באלגוריתמים האלה
17:37
to quietly watch us,
310
1057319
3377
כדי לצפות בנו בחשאי,
17:40
to judge us and to nudge us,
311
1060720
2080
כדי לשפוט אותנו ולהטות אותנו,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
כדי לנבא ולזהות מי יהיו עושי הצרות והמורדים,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
כדי לפרוש ארכיטקטורות ענק של שכנוע
17:51
and to manipulate individuals one by one
314
1071840
4136
ולהפעיל בני-אדם, אחד-אחד,
ע"י ניצול החולשות והפגיעוּת האישית של כל אחד ואחת,
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
18:02
and if they're doing it at scale
316
1082720
2200
אם הם עושים זאת בהיקף גדול
דרך המסכים הפרטיים שלנו
18:06
through our private screens
317
1086080
1736
18:07
so that we don't even know
318
1087840
1656
ואפילו איננו יודעים
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
במה צופים שכנינו ואחינו האזרחים,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
כי אז העריצות תעטוף אותנו כמו קורי עכביש
18:18
and we may not even know we're in it.
321
1098400
2480
ואולי אפילו לא נדע שאנו לכודים בה.
18:22
So Facebook's market capitalization
322
1102440
2936
שווי השוק של "פייסבוק"
18:25
is approaching half a trillion dollars.
323
1105400
3296
מתקרב לחצי טריליון דולר.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
וזה משום שהיא מוצלחת מאד בתור ארכיטקטורת שכנוע.
18:33
But the structure of that architecture
325
1113760
2816
אבל מבנה הארכיטקטורה הזאת
18:36
is the same whether you're selling shoes
326
1116600
3216
זהה, בין אם מוכרים נעליים
18:39
or whether you're selling politics.
327
1119840
2496
ובין אם מוכרים פוליטיקה.
18:42
The algorithms do not know the difference.
328
1122360
3120
האלגוריתמים לא מכירים את ההבדל.
18:46
The same algorithms set loose upon us
329
1126240
3296
אותם האלגוריתמים שמשסים בנו
18:49
to make us more pliable for ads
330
1129560
3176
כדי לגרום לנו להיות קלים יותר להשפעת הפרסומות
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
מארגנים גם את זרם המידע הפוליטי, האישי והחברתי שלנו,
18:59
and that's what's got to change.
332
1139520
1840
וזה מה שצריך להשתנות.
19:02
Now, don't get me wrong,
333
1142240
2296
אל תבינו אותי לא-נכון,
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
אנו משתמשים בפלטפורמות דיגיטליות כי יש בהן המון ערך עבורנו.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
אני משתמשת ב"פייסבוק" כדי לשמור על קשר עם חברים וקרובים בכל העולם.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
כתבתי בעבר על תפקידה המכריע של המדיה החברתית בתנועות החברתיות.
19:19
I have studied how these technologies can be used
337
1159800
3016
חקרתי איך ניתן להשתמש בטכנולוגיות האלה
19:22
to circumvent censorship around the world.
338
1162840
2480
כדי לעקוף צנזורות ברחבי העולם.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
העניין הוא, שהאנשים שמנהלים את "פייסבוק" או "גוגל"
19:33
are maliciously and deliberately trying
340
1173720
2696
אינם מנסים בזדון ובמכוון להגדיל את הקיטוב בארץ או בעולם
19:36
to make the country or the world more polarized
341
1176440
4456
19:40
and encourage extremism.
342
1180920
1680
ולעודד קיצוניות.
19:43
I read the many well-intentioned statements
343
1183440
3976
אני קוראת את ההצהרות הרבות, המלאות בכוונות טובות
19:47
that these people put out.
344
1187440
3320
שהאנשים האלה משחררים.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
אבל לא הכוונות או ההצהרות של אנשי הטכנולוגיה הן שמשנות,
19:57
it's the structures and business models they're building.
346
1197680
3560
אלא המבנים והמודלים העסקיים שהם מקימים.
20:02
And that's the core of the problem.
347
1202360
2096
וכאן לב הבעיה.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
או ש"פייסבוק" היא נוכלת ענק בשווי חצי טריליון דולר
20:10
and ads don't work on the site,
349
1210200
1896
שהפרסומות לא עובדות באתר שלה,
ולא מוצלחות כארכיטקטורת שכנוע,
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
20:14
or its power of influence is of great concern.
351
1214840
4120
או שכוח ההשפעה שלה הוא מקור לדאגה רבה.
20:20
It's either one or the other.
352
1220560
1776
או זה, או זה.
20:22
It's similar for Google, too.
353
1222360
1600
כך גם לגבי "גוגל".
20:24
So what can we do?
354
1224880
2456
אז מה נוכל לעשות?
20:27
This needs to change.
355
1227360
1936
זה חייב להשתנות.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
אינני יכולה להציע מתכון פשוט,
20:31
because we need to restructure
357
1231920
2256
כי עלינו לשנות מן היסוד
20:34
the whole way our digital technology operates.
358
1234200
3016
את כל אופן פעולתן של הטכנולוגיות הדיגיטליות שלנו.
20:37
Everything from the way technology is developed
359
1237240
4096
הכל, החל מאופן פיתוח הטכנולוגיה
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
ועד לדרכים בהן התמריצים, הכלכליים והאחרים,
20:45
are built into the system.
361
1245240
2280
משולבים במערכת.
20:48
We have to face and try to deal with
362
1248480
3456
עלינו להתעמת ולהתמודד
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
עם העדר השקיפות שיוצרים האלגוריתמים הקנייניים,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
עם האתגר המבני שבעמימותה של למידת המכונה,
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
עם האיסוף חסר-האבחנה של הנתונים שלנו.
מוטלת עלינו משימה ענקית.
21:05
We have a big task in front of us.
366
1265000
2520
21:08
We have to mobilize our technology,
367
1268160
2680
עלינו לגייס את הטכנולוגיה שלנו,
21:11
our creativity
368
1271760
1576
את היצירתיות שלנו
21:13
and yes, our politics
369
1273360
1880
וכן, גם את הפוליטיקה שלנו
21:16
so that we can build artificial intelligence
370
1276240
2656
כדי שנוכל לבנות תבונה מלאכותית
21:18
that supports us in our human goals
371
1278920
3120
שתומכת במטרותינו האנושיות
21:22
but that is also constrained by our human values.
372
1282800
3920
אבל גם מוגבלת ע"י ערכינו האנושיים.
21:27
And I understand this won't be easy.
373
1287600
2160
ואני מבינה שזה לא יהיה קל.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
אולי אפילו לא נסכים בקלות מה פירוש התנאים הללו.
21:34
But if we take seriously
375
1294920
2400
אבל אם נתייחס ברצינות
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
לדרכי פעולת המערכות האלה, שאנו כה תלויים בהן,
אינני רואה כיצד נוכל לדחות עוד את הדיון הזה.
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
21:49
These structures
378
1309200
2536
המבנים האלה
21:51
are organizing how we function
379
1311760
4096
מארגנים את התפקוד שלנו
21:55
and they're controlling
380
1315880
2296
והם שולטים
במה שנוכל ובמה שלא נוכל לעשות.
21:58
what we can and we cannot do.
381
1318200
2616
22:00
And many of these ad-financed platforms,
382
1320840
2456
ורבות מהפלטפורמות האלה, שהפרסומות מממנות,
22:03
they boast that they're free.
383
1323320
1576
מתגאות בכך שהן חינמיות.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
בהקשר הזה, זה אומר שאנו המוצר שנמכר.
22:10
We need a digital economy
385
1330840
2736
נחוצה לנו כלכלה דיגיטלית
22:13
where our data and our attention
386
1333600
3496
שבה הנתונים ומוקדי תשומת הלב שלנו
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
לא יוצעו למכירה לעריץ או לדמגוג המרבה במחיר.
22:23
(Applause)
388
1343160
3800
(מחיאות כפיים)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
אז אם נחזור לפרפראזה ההוליוודית,
22:33
we do want the prodigious potential
390
1353760
3736
אנו בהחלט רוצים בשגשוג הפוטנציאל העצום
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
של התבונה המלאכותית והטכנולוגיה הדיגיטלית,
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
אבל לשם כך עלינו להתמודד עם הסכנה העצומה הטמונה בהן
22:46
open-eyed and now.
393
1366360
1936
בעיניים פקוחות ועכשיו.
22:48
Thank you.
394
1368320
1216
תודה לכם.
22:49
(Applause)
395
1369560
4640
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7