How AI Could Hack Democracy | Lawrence Lessig | TED

44,468 views ・ 2024-11-05

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: aknv tso עריכה: zeeva livshitz
00:03
So on January 6, 2021
0
3580
5520
ב-6 לינואר, 2021
00:09
my nation suffered a little bit of a democracy heart attack.
1
9140
5360
המדינה שלי סבלה מהתקף-לב דמוקרטי קל.
00:15
Thousands of Americans had been told that the election had been stolen,
2
15820
4520
לאלפי אמריקנים נאמר שהבחירות נגנבו,
00:20
and tens of thousands of them showed up
3
20380
3320
והגיעו עשרות אלפים מהם,
00:23
because they believed the election had been stolen.
4
23740
3920
משום שהם האמינו שהבחירות נגנבו.
00:29
And indeed, in polling immediately after January 6,
5
29260
3960
ואמנם, בסקרים שנערכו מיד לאחר ה-6 לינואר,
00:33
“The Washington Post” found 70 percent of Republicans believed
6
33220
5160
ה“וושינגטון פוסט” מצא ש-70% מהרפובליקנים
00:38
the election had been stolen,
7
38420
2120
מאמינים שהבחירות נגנבו,
00:40
and a majority of college-educated Republicans believed
8
40580
5080
ושרוב הרפובליקנים בוגרי קולג′ מאמינים שהבחירות נגנבו.
00:45
the election had been stolen.
9
45700
1840
00:47
That was their perception.
10
47580
2240
כך הם הבינו.
00:51
And I don't know what the right way to act on that perception is.
11
51140
3560
ואין לי מושג כיצד ראוי לנהוג בקשר להבנה הזאת,
00:54
They thought the right way was to defend
12
54740
3120
אם הם חשבו שהמעשה הנכון הוא להגן על הדמוקרטיה שנגנבה, לדעתם.
00:57
what they thought was a democracy stolen.
13
57900
3680
01:03
Now, these numbers were astonishing:
14
63220
3040
המספרים האלה היו מדהימים:
01:06
30 percent or two thirds of Republicans believing the election was stolen.
15
66260
4320
30% או שני שליש מהרפובליקנים מאמינים שהבחירות נגנבו.
01:10
But even more extraordinary are these numbers.
16
70580
3720
אבל המספרים האלה עוד יותר מדהימים.
01:15
The fact that in the three years since that astonishing event,
17
75340
6160
העובדה שבשלוש השנים שחלפו מאז אותו אירוע מדהים,
01:21
the numbers have not changed.
18
81500
2120
לא חל שינוי במספרים.
01:24
The same number believe today that the election was stolen
19
84340
3360
האנשים שמאמינים שהבחירות נגנבו הם בדיוק אותם אנשים מלפני 3 שנים.
01:27
as believed it was stolen three years ago,
20
87740
2200
01:29
despite the fact that we've had investigations
21
89980
2760
חרף העובדה שנערכו בדיקות
01:32
and overwhelming evidence that there was no fraud
22
92780
2840
ובידינו הוכחות מכריעות לכך שלא היה שום זיוף
01:35
sufficient to ever change even a single state.
23
95660
4120
שדי בו לשנות את התוצאה ולו במדינה אחת.
01:39
This is something new.
24
99820
1480
זה משהו חדש.
01:42
When Richard Nixon went through the Watergate scandal,
25
102020
2840
כשריצ’רד ניקסון היה מעורב בשערוריית ווטרגייט,
01:44
as the news was being reported,
26
104900
2160
וזה היה בחדשות,
01:47
Nixon's popularity collapsed not just among Democrats,
27
107100
3840
הפופולריות של ניקסון קרסה לא רק בקרב הדמוקרטים,
01:50
but among independents and Republicans.
28
110980
2360
אלא גם בקרב המפלגות העצמאיות והרפובליקנים.
01:53
But we're at a stage where it doesn't matter what happens.
29
113980
4240
אבל עכשיו אנו בשלב שבו כבר לא משנה מה קורה.
01:58
This is Donald Trump's popularity over the course of his administration.
30
118260
4840
הנה הפופולריות של דונלד טראמפ במהלך כהונתו.
02:03
Nothing changes.
31
123620
1520
אין שום שינוי.
אין חשיבות לעובדות.
02:05
The facts don't matter.
32
125140
2600
02:08
Now I think this truth should bother us a lot.
33
128540
5000
לדעתי, האמת הזאת צריכה להטריד אותנו. מאוד.
02:14
I think we need to develop a kind of paranoia
34
134620
3840
לדעתי, עלינו לפתח מעין פרנויה
02:18
about what produces this reality.
35
138460
3440
בנוגע למה שיוצר את המציאות הזאת.
02:21
A particular paranoia, the paranoia of the hunted.
36
141940
4080
פרנויה מסוימת מאוד. הפרנויה של הניצוד.
02:26
Think of the kids in "The Birds"
37
146340
3080
חישבו על הילדים האלה, בסרט “הציפורים“,
02:29
first realizing that those crows were attacking them,
38
149460
2960
כשהם קולטים לראשונה שהעורבים האלה תוקפים אותם,
02:32
or "Black Mirror's" Metalheads,
39
152460
2160
או חובבי מוזיקת “הבי מטאל” ו“מראה שחורה“,
02:34
when you see these creatures chasing and surrounding you.
40
154660
4240
כשרואים את היצורים האלה רודפים אחריך ומקיפים אותך.
02:38
The point is, we need to recognize
41
158900
1960
הנקודה היא שעלינו להכיר בכך
02:40
that there is an intelligence out there to get us.
42
160900
6280
שקיימת בינה מסוימת שיצאה לצוד אותנו.
02:47
Because our perceptions,
43
167780
3640
כי התפישות שלנו,
02:51
our collective perceptions,
44
171460
1960
התפישות הקיבוציות שלנו,
02:53
our collective misimpressions
45
173460
3200
הרשמים המוטעים הקיבוציים שלנו,
02:56
are not accidental.
46
176660
1520
אינם מקריים.
02:58
They are expected, they are intended,
47
178780
2160
הם צפויים, יש מאחוריהם כוונה,
03:00
they are the product of the thing.
48
180940
4000
הם התוצר של “הדבר“.
03:05
(Laughter)
49
185300
1160
(צחוק)
03:06
OK, I want to be careful introducing the thing.
50
186500
2680
טוב, אני רוצה להיזהר כשאני מציג את הדבר.
03:10
I'm going to talk a little bit about AI, but I'm not going to slag on AI.
51
190020
3480
אדבר מעט על הבינה המלאכותית, אבל אינני מתכוון לרדת עליה.
03:13
I think AI is the most extraordinary technology
52
193540
3400
אני חושב שהבינה המלאכותית היא הטכנולוגיה המדהימה ביותר
03:16
humanity has ever even conceived of.
53
196980
2680
שהאנושות חשבה עליה אי-פעם.
03:19
But I also think it has the potential to end humanity.
54
199700
5320
אבל אני גם חושב שבכוחה לשים קץ לאנושות.
03:25
But I'm not going to slag on AI,
55
205420
1560
אבל לא ארד על הבינה המלאכותית,
03:27
because I'm pretty sure that our robot overlord
56
207020
2560
כי אני די בטוח שאדוננו הרובוט
03:29
is going to be listening to these TED talks someday,
57
209620
2960
יאזין מתישהו להרצאות TED אלה,
03:32
and I don't want to be on the wrong side of the overlord.
58
212620
2760
ואני לא רוצה שהוא יסתכל עלי בעין עקומה.
03:35
So AI is just fine.
59
215420
1360
אז הבינה המלאכותית ממש בסדר.
03:36
I'm not going to talk about this AI first.
60
216820
2000
לא אדבר תחילה על הבינה המלאכותית הזאת.
03:38
I want to instead put AI in a little bit of a perspective,
61
218860
4880
במקום זה אני רוצה להעמיד את הבינה המלאכותית בפרספקטיבה,
03:43
because I think that we're too obsessed with the new,
62
223740
4080
כי נראה לי שאנו יותר מדי אובססיביים עם הבינה המלאכותית החדשה,
03:47
and we fail to recognize the significance of AI in the old.
63
227860
5280
ולא מצליחים להכיר בחשיבותה של הבינה המלאכותית הישנה.
03:53
We think about intelligence,
64
233820
1440
כשאנו חושבים על בינה,
03:55
and we're distinguishing between artificial and natural intelligence.
65
235300
3640
אנו מבחינים בין בינה מלאכותית לבין בינה טבעית.
03:58
And we, of course, as humans,
66
238980
1400
וכבני אדם, אנו כמובן
04:00
claim pride of kingdom in the world of natural intelligence.
67
240420
4360
טוענים בגאווה לכתר כאדוני העולם בבינה טבעית.
04:05
And then we build artificial intelligence.
68
245420
2440
ואז אנו בונים בינה מלאכותית.
04:07
It's intelligence that we make.
69
247900
1760
הבינה הזו שאנו יוצרים.
04:09
But here's the critical point.
70
249700
1600
אבל הנה הנקודה המכרעת.
04:11
We have already, for a long time,
71
251860
4320
מזה זמן רב שאנו חיים עם מערכות של בינה מלאכותית.
04:16
lived with systems of artificial intelligence.
72
256220
2720
04:18
I don't mean digital AI,
73
258980
2560
אני לא מתכוון לבינה מלאותית דיגיטלית,
04:21
I mean analog AI.
74
261580
1360
אלא לבינה מלאכותית אנלוגית.
04:24
Any entity or institution that we build with a purpose
75
264340
4240
כל גוף או מוסד שאנו מקימים לצורך כלשהו
04:28
that acts instrumentally in the world is in this sense an AI.
76
268620
5040
שמשמש אותנו בעולם הזה הוא במובן זה בינה מלאכותית.
04:34
It is an instrumentally rational entity that's mapping how it should behave,
77
274620
4680
מדובר בגוף רציונלי ושימושי שממפה את התנהגותנו הראויה,
04:39
given the way the world evolves and responds to it.
78
279340
3000
לפי כיוון התפתחותו של העולם, ובתגובה לכך.
04:42
So think about democracy as an AI.
79
282340
3560
חישבו על הדמוקרטיה כעל בינה מלאכותית.
04:46
It has institutions, elections, parliaments, constitutions
80
286300
4000
יש לה מוסדות, בחירות, בתי נבחרים, חוקות
04:50
for the purpose of some collective ends.
81
290300
3800
שיש להם מטרות קיבוציות מסוימות.
04:54
Our Constitution says it's for the common good.
82
294100
3560
לפי החוקה שלנו, מדובר בטובת הכלל.
04:57
So the democracy in our Constitution is an analog artificial intelligence
83
297700
6040
כך שהדמוקרטיה שבחוקה שלנו היא בינה מלאכותית אנלוגית
05:03
devoted to the common good.
84
303780
2040
המוקדשת לטובת הכלל.
05:06
Or think about corporations as an AI.
85
306460
3040
חישבו על התאגידים שלנו כעל בינה מלאכותית.
05:09
They have institutions, boards, management, finance,
86
309540
3040
יש בהם מוסדות, חברי מנהלים, הנהלות, פיננסים,
05:12
for the purpose of making money, or at least conceived of narrowly,
87
312620
3640
לתכלית עשיית כסף, או כך הם נתפשים באופן שטחי,
05:16
today, that’s the way it is.
88
316260
1360
זה המצב היום.
05:17
There corporation is an analog intelligence devoted to maximizing
89
317660
3840
התאגידים הם בינה מלאכותית אנלוגית המוקדשת למירוב ערך בעלי המניות.
05:21
shareholder value.
90
321500
1320
05:22
These are AIs.
91
322860
1840
הם בינות מלאכותיות.
05:25
They have purposes and objectives sometimes complementing each other.
92
325940
4600
יש להם מטרות ויעדים משלימים, לפעמים.
05:31
So the purpose of a school bus company
93
331020
2120
למשל, מטרתה של חברת הסעות התלמידים משלימה את מטרת הנהלת בית הספר
05:33
complements the purpose of a school board
94
333140
2280
05:35
to produce school bus transportation in a district.
95
335460
3080
לכונן הסעות תלמידים אל בתי הספר במחוז.
05:38
That's just beautiful.
96
338580
1720
יפה מאוד.
05:41
But sometimes they're competing.
97
341060
2000
אבל לפעמים המטרות סותרות.
05:43
The purpose of a government and having a clean environment
98
343660
2720
את מטרות הממשלה והדרישה לסביבה נקיה
05:46
conflicts with the purpose of a coal company
99
346380
2320
מתנגשות עם מטרותיה של חברת פחם שתוכננה לייצר חשמל
05:48
designing to produce electricity
100
348740
2360
05:51
by spewing carbon and soot into the environment.
101
351140
3880
ע“י פליטת פחמן ואפר אל תוך הסביבה.
05:55
And when they conflict, we tell ourselves this happy story.
102
355060
3520
וכשמטרות אלה סותרות, אנו מספרים לעצמנו סיפור נחמד.
05:59
We tell ourselves the story that democracy is going to stand up
103
359180
3920
לפי הסיפור שאנו מספרים לעצמנו, הדמוקרטיה תעמוד על שלה,
06:03
and discipline that evil corporation.
104
363140
3360
ותטיל את מרותה על התאגיד המרושע.
06:06
To get the corporation to do the right thing,
105
366500
2120
כדי שהתאגיד ינהג נכון, ויעשה את מה שחשוב לכולנו.
06:08
to do the thing that's in the interest of all of us.
106
368620
3000
06:11
That's our happy story.
107
371660
1240
זהו הסיפור הנחמד שלנו, וזאת גם פנטזיה,
06:12
It's also a fantasy.
108
372940
1760
06:15
Because at least in my country,
109
375980
3520
כי במדינה שלי, לפחות,
06:19
corporations are more effective AIs than democracy.
110
379540
5160
התאגידים הם בינות מלאכותיות אפקטיביות בהרבה מהדמוקרטיה.
06:25
Think about it a little bit like this.
111
385140
1840
נסו לחשוב על זה ככה.
06:27
If we think about instrumental rationality along one axis of this graph
112
387020
4120
אם הרציונליות השימושית נמצאת על ציר אחד של הגרף הזה,
06:31
and time across the other,
113
391140
1520
והזמן על הציר השני,
06:32
humans, of course, are the first instrumentally rational entity
114
392660
3200
בני אדם הם כמובן
הישות הרציונלית השימושית הראשונה שחשובה לנו.
06:35
we care about, we're better than cows.
115
395900
2600
אנו טובים מפרות. אולי לא טובים כמו הנמלים,
06:38
Maybe not as good as ants, but the point is,
116
398540
2400
06:40
we're pretty good as individuals
117
400980
3080
אבל הנקודה היא, שכל אדם כשלעצמו די טוב
06:44
figuring out how to do things strategically.
118
404100
3160
בלמצוא איך לעשות דברים בצורה אסטרטגית.
06:47
And then we built democracy to do that a little bit better,
119
407900
3480
ואז אנו בונים דמוקרטיה שתעשה את זה קצת יותר טוב,
06:51
to act collectively for all of us.
120
411380
1840
שתפעל באופן קיבוצי לטובת כולנו.
06:53
And that's a more instrumentally rational entity
121
413260
2680
וזאת ישות עוד יותר רציונלית ושימושית
06:55
than we, individual humans, can be.
122
415940
2320
מכפי שנוכל להיות כיחידים,
06:58
Then we created corporations.
123
418260
2120
ואז אנו יוצרים תאגידים.
07:01
And it turns out, they have become, at least in corrupted political regimes —
124
421580
3760
ומסתבר שאלה נעשו, לפחות במשטרים מושחתים --
07:05
which, I’ll just submit, my political regime is —
125
425340
2920
וכזה הוא, רק אומר, הוא המשטר שלי --
07:08
better than democracy
126
428260
3160
טובים יותר מהדמוקרטיה בהשגת יעדיהם.
07:11
in bringing about their objective ends.
127
431460
3640
07:15
Now, of course, in this system,
128
435580
1640
במערכת כזאת, כמובן,
07:17
each of these layers has an aspiration to control the higher layer.
129
437260
3600
כל שכבה כזאת שואפת לשלוט בשכבה שמעליה.
07:21
So humans try to control democracy through elections.
130
441300
3400
בני האדם מנסים לשלוט בדמוקרטיה באמצעות בחירות.
07:24
Democracy tries to control corporations through regulation.
131
444740
3520
הדמוקרטיה מנסה לשלוט בתאגידים באמצעות חקיקה.
07:29
But the reality of control is, of course, a little bit different.
132
449020
4080
אבל במציאות, כמובן, סדר השליטה שונה מעט.
07:33
In the United States, corporations control democracy
133
453940
2720
בארצות הברית, התאגידים שולטים בדמוקרטיה
07:36
through the extraordinary amount of money they pour into elections,
134
456700
3200
בעזרת כמויות כסף דמיוניות שהם שופכים על הבחירות,
07:39
making our representatives dependent not on us, but on them.
135
459940
3480
ובכך גורמים לנציגינו להיות תלויים לא בנו, אלא בהם.
07:44
And democracy then controls the humans
136
464340
4680
ואז הדמוקרטיה שולטת בבני האדם באמצעות הנציגים,
07:49
by making representation,
137
469060
1200
07:50
not actually representation, corrupting representation.
138
470300
3320
לא בדיוק נציגים אלא נציגים מושחתים.
07:54
Now, this structure, this layer of higher order intelligence
139
474380
4520
מן המבנה הזה, השכבה הזאת של בינה מסדר גבוה יותר,
07:58
or instrumental rationality might evoke,
140
478940
2760
או הרציונליות השימושית הזאת, ניתן לגזור --
08:01
for those of you who think about AI,
141
481740
2560
לאלה מכם שחושבים על בינה מלאכותית --
08:04
a statement by the godfather of AI, Geoffrey Hinton.
142
484300
3320
אמירה מפי סנדק הבינה המלאכותית, ג’פרי הינטון.
08:08
Hinton warns us,
143
488780
1360
הינטון מזהיר אותנו :
08:10
"There are a few examples of a more intelligent thing
144
490180
4480
“מעטות מאוד הן הדוגמאות של משהו נבון יותר
08:14
being controlled by a less intelligent thing."
145
494660
2480
“שנשלט בידי משהו נבון פחות.”
08:18
Or we could say,
146
498380
1240
ובניסוח אחר - “משהו רציונלי ושימושי יותר
08:19
a more instrumentally rational thing
147
499660
2640
08:22
being controlled by a less instrumentally rational thing.
148
502340
3360
“שנשלט בידי משהו רציונלי ושימושי פחות.”
08:26
And that is consistent with this picture of AIs.
149
506620
4640
וזה תואם את התמונה הזאת של בינות מלאכותיות.
08:31
And then we add digital AI into this mix.
150
511300
3800
ואז אנו באים ומוסיפים לתערובת הזאת בינה דיגיטלית.
08:35
And here too, once again,
151
515100
1240
וגם כאן, שוב,
08:36
we have corporations attempting to control their digital AI.
152
516380
5360
יש לנו תאגידים שמנסים לשלוט בבינה הדיגיטלית שלהם.
08:43
But the reality of that control is not quite perfect.
153
523020
4400
אבל במציאות, השליטה אינה מושלמת.
08:48
Facebook, in September of 2017,
154
528300
3800
בספטמבר 2017 נחשף
08:52
was revealed to have a term in their ad system
155
532140
5800
שבמערכת הפרסום של “פייסבוק“ קיים המונח:
08:57
called "Jew Haters."
156
537980
1480
“שונאי יהודים”.
08:59
You could buy ads targeting Jew haters.
157
539780
3440
אפשר לקנות מודעות שמתמקדות בשונאי יהודים.
09:03
Now, nobody in Facebook created that category.
158
543620
3720
אבל איש בפייסבוק לא יצר את הקטגוריה הזאת.
09:07
There was not a human in Facebook who decided
159
547380
2360
לא היה בפייסבוק יצור אנושי אחד שהחליט:
09:09
"We're going to start targeting Jew haters."
160
549780
2160
“מעכשיו נתחיל להתמקד בשונאי יהודים,”
09:11
Its AI created that category
161
551980
3520
הבינה המלאכותית שלה היא שיצרה קטגוריה זו
09:15
because its AI figured Jew haters would be a profitable category
162
555540
3240
כי הבינה המלאכותית שלה הסיקה ששונאי יהודים יהוו קטגוריה רווחית
09:18
for them to begin to sell ads to,
163
558820
2840
כדי למכור להם פרסומות,
09:21
and the company was, of course, embarrassed
164
561660
2040
והחברה, כמובן, באה במבוכה
09:23
that it turned out they didn't actually have control
165
563740
2680
מכך שהתברר שאין לה שום שליטה
09:26
over the machine that ran their machines that run our lives.
166
566420
4120
על המכונה שלה, שמנהלת את המכונות שלה שמנהלות את חיינו.
09:30
The real difference in this story, though,
167
570580
2680
אבל מה שמיוחד בסיפור הזה,
09:33
is the extraordinary potential
168
573260
3720
הוא הפוטנציאל העצום הטמון בישות הרציונלית השימושית הזאת
09:37
of this instrumentally rational entity
169
577020
3280
09:40
versus us.
170
580300
1640
נגדנו.
09:41
This massively better instrumentally rational entity
171
581980
3920
הישות הרציונלית השימושית הזו, שעדיפה מעל ומעבר
09:45
versus even corporations and certainly democracies,
172
585940
2960
אפילו יותר מתאגידים ומדמוקרטיות מסוימות,
09:48
because it's going to be more efficient at achieving its objective than we are.
173
588940
5040
משום שהיא תיעשה עוד יותר יעילה מאיתנו בהשגת מטרותיה.
09:54
And here's where we cue the paranoia I began to seed
174
594020
4120
וכאן ניתן האות לפרנויה שאת זרעיה התחלתי לזרוע,
09:58
because our collective perceptions, our collective misperceptions
175
598180
5800
כי התפישות הקיבוציות שלנו, התפישות השגויות הקיבוציות שלנו,
10:04
are not accidental.
176
604020
1680
אינן עניין מקרי.
10:05
They are expected, intended, the product of this AI.
177
605740
5440
מדובר במוצר צפוי ומכוון של בינה מלאכותית זו.
10:11
We could think of it as the AI perception machine.
178
611180
3680
אפשר לראות בה “מחולל תפישות מבוסס בינה מלאכותית“.
10:14
We are its targets.
179
614900
2040
אנו המטרות שלו.
10:19
Now, the first contact we had with this AI,
180
619460
2520
המגע הראשון שהיה לנו עם הבינה המלאכותית הזאת,
10:22
as Tristan Harris described it,
181
622020
1800
בתיאורו של טריסטן האריס,
10:23
came from social media.
182
623860
2440
הגיע מהמדיה החברתית.
10:26
Tristan Harris, who started the Center for Humane Technology,
183
626940
3440
טריסטן האריס, שייסד את המרכז לטכנולוגיה אנושית,
10:30
cofounded it, famous in this extraordinary documentary,
184
630420
3880
הוא אחד המייסדים, שנודע בסרט התיעודי הנפלא,
10:34
"The Social Dilemma,"
185
634300
1200
“הדילמה החברתית“,
10:35
before he was famous, he was just an engineer at Google.
186
635540
2880
לפני שהתפרסם, הוא היה עוד מהנדס ב“גוגל“.
10:38
And at Google, he was focused on the science of attention
187
638420
3920
כשהיה בגוגל הוא התמקד במדע תשומת הלב,
10:42
using AI to engineer attention,
188
642380
2320
והשימוש בבינה מלאכותית כדי להנדס תשומת לב,
10:44
to overcome resistance,
189
644740
2800
במגמה להתגבר על התנגדות,
10:47
to increase human engagement with the platform
190
647540
3920
וכדי להגביר את המעורבות האנושית בפלטפורמה,
10:51
because engagement is the business model.
191
651500
3320
משום שהמעורבות היא המודל העסקי.
10:55
Compare this to, think of it as brain hacking.
192
655660
3440
השוו את זה למשל... ראו בזה פיצוח של המוח.
10:59
We could compare it to what we could call body hacking.
193
659100
2680
אפשר להשוות את זה ל“פיצוח של הגוף“,
11:02
This is the exploiting of food science.
194
662100
2560
כלומר, ניצול מדע המזון.
11:04
Scientists engineer food to exploit our evolution,
195
664700
3920
מדענים מהנדסים מזון כדי לנצל את האבולוציה שלנו,
11:08
our mix of salt, fat and sugar,
196
668660
1960
את תערובת המלח, השומן והסוכר שלנו,
11:10
to overcome the natural resistance
197
670620
1760
כדי להתגבר על התנגדותנו הטבעית
11:12
so you can't stop eating food.
198
672420
3040
עד שאי-אפשר להפסיק לאכול.
11:16
So that they can sell food or sell, "food" more profitably.
199
676300
4400
כדי שהם יוכלו למכור מזון, או “מזון“, ביתר רווחיות.
11:20
Brain hacking is the same, but focused on attention.
200
680700
2880
כך גם בפיצוח המוח, כשהמיקוד הוא בתשומת הלב.
11:24
It's exploiting evolution.
201
684260
1720
זהו ניצול של האבולוציה.
11:26
The fact that we have an irrational response to random rewards,
202
686580
3480
העובדה שיש לנו תגובה אי-רציונלית לאפשרות לגמול אקראי,
11:30
or can't stop consuming bottomless pits of content
203
690100
4880
או זה שאיננו יכולים להפסיק לצרוך תוכן מבורות חסרי-תחתית
11:35
with the aim to increase engagement,
204
695020
2840
כשמטרה היא להגביר את המעורבות, כדי למכור יותר פרסומות.
11:37
to sell more ads.
205
697900
1920
11:40
And it just so happens, too bad for us,
206
700140
3320
רצה המקרה, לדאבוננו,
11:43
that we engage more
207
703500
2320
שאנו נעשים יותר מעורבים
11:45
the more extreme, the more polarizing,
208
705820
2600
ככל שהתוכן הוא יותר קיצוני, מקטב, נוטף שנאה.
11:48
the more hate-filled this content is.
209
708460
3880
11:52
So that is what we're fed by these AIs.
210
712340
4920
אלה הדברים שהבינה המלאכותית מאכילה אותנו בהם.
11:58
With the consequence
211
718180
2000
והתוצאה היא
12:00
that we produce a people more polarized and ignorant and angry
212
720220
5160
שאנו מייצרים עַם יותר מקוטב, נבער וזועם
12:05
than at any time in democracy's history in America
213
725420
3360
מכל תקופה אחרת בתולדות הדמוקרטיה של אמריקה
12:08
since the Civil War
214
728820
1560
מאז מלחמת האזרחים,
12:10
and democracy is thereby weakened.
215
730420
2360
וכך הולכת הדמוקרטיה ונחלשת.
12:13
They give us what we want.
216
733140
2400
נותנים לנו את מה שאנו רוצים.
12:16
What we want makes us into this.
217
736060
4200
מה שאנו רוצים הופך אותנו לדבר הזה.
12:21
OK, but recognize something really critically important.
218
741140
2720
אבל עליכם להכיר במשהו חשוב במידה מכרעת.
12:23
This is not because AI is so strong.
219
743900
2880
זה לא משום שהבינה המלאכותית חזקה כל-כך.
12:27
It's because we are so weak.
220
747620
2720
זה בגלל שאנחנו חלשים כל-כך.
12:31
Here's Tristan Harris describing this.
221
751900
1880
וכך מתאר זאת טריסטן האריס.
12:33
(Video) "We're all looking out for the moment
222
753820
2120
(סרטון) “כולנו מצפים לרגע
12:35
when technology would overwhelm human strengths and intelligence.
223
755940
3480
“שבו הטכנולוגיה תתגבר על חוזקותיו ובינתו של האדם,
12:39
When is it going to cross the singularity,
224
759460
2040
מתי היא תחצה את סף הסינגולריות,
12:41
replace our jobs,
225
761540
1160
תחליף אותנו במקום העבודה, ותהיה חכמה יותר מהאדם?
12:42
be smarter than humans?
226
762740
1360
12:44
But there's this much earlier moment
227
764420
2800
אבל ישנו רגע מוקדם בהרבה,
12:47
when technology exceeds and overwhelms human weaknesses.
228
767260
4320
שבו הטכנולוגיה עולה ומתגברת על החולשות האנושיות.
- מתוך “הדילמה החברתית” -
12:53
This point being crossed is at the root of addiction, polarization,
229
773900
5080
“חציית השלב הזה עומדת ביסוד ההתמכרות, הקיטוב,
12:59
radicalization, outrage-ification, vanity-ification, the entire thing.
230
779020
3840
ההקצנה, הזעם הצדקני, השחצנות הצדקנית, כל הדבר הזה.
13:04
This is overpowering human nature.
231
784100
2240
זהו הנצחון על טבע האדם.
13:06
And this is checkmate on humanity."
232
786940
2800
וזהו מהלך השח-מט נגד האדם.”
13:10
Lawrence Lessig: So Tristan’s point is we’re always focused
233
790420
2840
כלומר, טריסטן טוען שאנו תמיד מתמקדים בפינה הזאת,
13:13
on this corner, when AGI comes,
234
793260
3800
ברגע הגעתה של הבינה המלאכותית הכללית,
13:17
when it's super intelligent,
235
797100
1720
הרגע שבו היא תהיה סופר-נבונה,
13:18
when it's more intelligent than any of us.
236
798860
2440
נבונה הרבה יותר מכל אחד ואחת מאיתנו.
13:21
And that's what we now fear.
237
801300
2200
ומכך אנו חוששים עכשיו.
13:23
Whether we will get there in three years or 20 years,
238
803500
3120
בין אם נגיע לשם עוד 3 שנים או 20 שנה,
13:26
what will happen then?
239
806620
1200
מה יקרה אז?
13:27
But his point is, it's actually this place
240
807860
3960
אבל הוא מנסה לומר לנו שהנקודה הזאת היא המקום
13:31
that we must begin to worry,
241
811820
2560
שלגביו עלינו להתחיל לדאוג,
13:34
because at this place, it can overcome our weaknesses.
242
814420
4400
כי זהו המקום שבו היא מסוגלת להתגבר על חולשותינו.
13:39
"The Social Dilemma"
243
819460
1160
“הדילמה החברתית” עסק בחולשות של כל אחד ואחת מאיתנו,
13:40
was about the individual weaknesses we have,
244
820660
2320
13:42
not to be able to turn away from our phones,
245
822980
2760
כשאיננו מסוגלים להתרחק מהטלפונים שלנו,
13:45
or to convince our children to turn away from their phones.
246
825780
3640
או לשכנע את ילדינו להתרחק מהטלפונים שלהם.
13:49
But I want you to see that there's also a collective human weakness.
247
829460
4560
אבל אני רוצה שתבינו שיש גם חולשה אנושית קיבוצית,
13:54
That this technology drives us to disable our capacity to act collectively
248
834540
5160
שהטכנולוגיה הזו דוחפת אותנו לסכל את יכולתנו לפעול יחד
13:59
in ways that any of us would want.
249
839700
2480
בדרכים רצויות לכל אחד ואחת מאיתנו.
14:02
So we are surrounded individually by these metalheads,
250
842220
4240
וכך, גופי המתכת האלה מקיפים את כולנו אישית,
14:06
and we are also surrounded as a people
251
846500
3680
וגם כעם,
14:10
by these metalheads
252
850180
1200
14:11
long before AGI is anywhere on the horizon.
253
851420
4400
הרבה לפני שהבינה המלאכותית הכללית תפציע באופק.
14:15
It overwhelms us.
254
855820
1560
היא מכניעה אותנו.
14:17
AI gets us to do what it seeks,
255
857700
3680
הבינה המלאכותית גורמת לנו לעשות את מה שרצוי לה,
14:21
which is engagement,
256
861380
2840
דהיינו, מעורבות,
14:24
and we get democracy hacked in return.
257
864260
5320
ובתמורה, אנו סופגים את פיצוח הדמוקרטיה.
14:30
Now, if the first contact that we had gave us that,
258
870180
4520
ואם המגע הראשון שלנו זיכה אותנו בדברים האלה,
14:34
if social media circa 2020 gave us that,
259
874740
4400
אם המדיה החברתית של סביבות 2020 נתנה לנו אותם,
14:39
what's this second contact with AI going to produce?
260
879180
4200
מה יוליד המגע השני עם הבינה המלאכותית?
14:43
When AI is capable, not just in figuring out how to target you
261
883900
3880
כשהבינה המלאכותית תוכל לא רק להבין איך לקלוע אליכם
14:47
with the content it knows will elicit the most reaction
262
887820
3600
עם התוכן שידוע לה שיפיק מכם
את מירב התגובה והמעורבות,
14:51
and engagement from you,
263
891460
1520
14:53
but can create content
264
893020
2080
אלא גם תוכל ליצור תוכן
14:55
that it knows will react or get you to engage more directly,
265
895140
3720
שהיא יודעת שיפיק מכם תגובה או מעורבות באופן ישיר יותר,
14:58
whether true or false,
266
898900
2520
בין אם תוכן נכון או שקרי,
15:01
whether slanderous or not.
267
901460
1920
משמיץ או לא.
15:03
What does that contact do?
268
903420
3760
מה יעולל המגע הזה?
15:08
I so hate the writers of "Game of Thrones"
269
908580
4840
אני שונא כל-כך את כותבי “משחקי הכס“,
15:13
because their last season,
270
913460
1720
כי בעונה האחרונה הם הרסו לגמרי את הסדרה כולה...
15:15
they so completely ruined the whole series.
271
915180
3600
15:18
(Laughter and applause)
272
918780
2280
(צחוק ומחיאות כפיים)
15:21
We can't use memes from "Game of Thrones" anymore.
273
921100
3040
עד שכבר איננו יכולים להשתמש בממים מתוך “משחקי הכס“.
15:24
But if we could, I would say winter is coming, friends,
274
924180
4000
אבל אילו יכולנו, הייתי אומר, “החורף מתקרב, חברים“.
15:28
I'm just going to say it anyway.
275
928220
1560
אומר את זה בכל זאת: החורף מתקרב, חברים.
15:29
Winter is coming, friends.
276
929780
2120
15:32
And these AIs are the source that we have to worry about.
277
932660
6760
והבינה המלאכותית לסוגיה היא הבעיה שצריכה להדאיג אותנו.
15:39
So then, what is to be done?
278
939420
2120
אם כך, מה אפשר לעשות?
15:44
Well, you know, if there's a flood, what you do is you turn around and run.
279
944100
4360
אז כידוע לכם, כשיש שטפון, צריך להסתובב ולברוח.
15:49
You move.
280
949020
1640
להתחיל לזוז.
15:50
You move to higher ground or protected ground.
281
950700
3040
לעבור לאיזור גבוה או מוגן.
15:55
You find a way to insulate democracy
282
955900
3080
צריך למצוא דרך לבודד את הדמוקרטיה
15:59
or to shelter democracy from AI's force
283
959020
2800
או להגן על הדמוקרטיה מכוחות הבינה המלאכותית
16:01
or from AI's harmful force.
284
961860
1640
או מכוחה המזיק של הבינה המלאכותית.
16:03
And, you know, the law does this in America with juries.
285
963540
4400
וכידוע לכם, החוק באמריקה עושה זאת בעזרת חבר המושבעים.
16:07
We have juries.
286
967980
1160
יש לנו חברי מושבעים.
16:09
They deliberate,
287
969180
1480
הם דנים ביניהם,
16:10
but they are protected in the types of information
288
970700
3360
אבל הם מוגנים מבחינת סוגי המידע
16:14
that they're allowed to hear or talk about or deliberate upon,
289
974100
3960
שמותר להם לשמוע, או לדבר ולדון עליהם,
16:18
because we know we need to protect them
290
978060
1920
כי ברור לנו שעלינו לגונן עליהם
16:20
if they're to reach a judgment that is just.
291
980020
2320
אם ברצוננו שהם יגיעו לשיפוט צודק.
16:22
And democracy reformers, especially across Europe,
292
982380
3760
ומתַקני הדמוקרטיה, במיוחד באירופה,
16:26
are trying to do this right now.
293
986140
1720
מנסים כעת לעשות בדיוק את זה.
16:27
Reformers building citizen assemblies,
294
987860
2920
מתַקנים שמקימים מועצות אזרחיות,
16:30
across Europe mainly, in Japan as well.
295
990780
2760
בעיקר באירופה, וגם ביפן.
16:33
And the citizen assemblies are these random, representative,
296
993540
4080
ומועצות אזרחיות אלה
הן גופים אקראיים, מייצגים, משכילים שמנהלים דיונים
16:37
informed and deliberative bodies
297
997660
2280
16:39
that take on particular democratic questions
298
999940
4560
ומתמודדים עם סוגיות דמוקרטיות ייחודיות
16:44
and address them in a way that could be protected
299
1004540
3720
ומתייחסים אליהן בדרך שניתן להגן עליה
16:48
from this corruption of the AI.
300
1008300
1720
מההשחתה של הבינה המלאכותית.
16:50
So Iceland was able to craft a constitution out of a process like this.
301
1010020
4280
איסלנד הצליחה לנסח חוקה מתוך תהליך כזה.
16:54
Ireland was able to approve gay marriage and deregulation of abortion
302
1014300
4880
אירלנד הצליחה לאשר נישואין חד-מיניים ולשנות את החקיקה לגבי הפלות
16:59
through a process like this.
303
1019220
1400
באמצעות תהליך כזה.
17:00
France has addressed climate change
304
1020620
2000
צרפת מתייחסת לשינויי האקלים
17:02
and also end-of-life decisions.
305
1022660
1480
וגם להחלטות סיום החיים.
17:04
And across Germany there are many of these entities
306
1024180
3360
ובכל גרמניה יש גופים רבים כאלה
17:07
that are boiling up to find ways for a different democratic voice,
307
1027540
5760
שבתמצית, מוצאים דרכים להשמיע קול דמוקרטי שונה --
17:13
to find voice.
308
1033340
1360
למצוא בכלל קול.
17:15
But here's the point.
309
1035620
1400
אבל הנקודה היא זו.
17:18
These are extraordinarily hopeful and exciting, no doubt.
310
1038260
3200
אלה דברים מלאי תקווה ומלהיבים ביותר, ללא ספק.
17:21
But they are not just a good idea.
311
1041460
3840
אבל הם אינם סתם רעיון טוב.
17:26
They are existential for democracy.
312
1046380
4160
אלה דברים קיומיים מבחינת הדמוקרטיה.
17:30
They are security for democracy.
313
1050540
2800
הם מבטיחים את הדמוקרטיה.
17:33
They are a way to protect us from this AI hacking
314
1053380
4040
הם מהווים דרך להגן על עצמנו מפני פיצוח מצד הבינה המלאכותית
17:37
that steers against a public will.
315
1057460
3800
שפונה נגד רצון הציבור.
17:42
This is change not just to make democracy better,
316
1062740
3840
זה איננו שינוי שרק משפר את הדמוקרטיה,
17:46
a tweak to just make it a little bit more democratic.
317
1066620
3800
שיפוץ קל שרק עושה אותה לקצת יותר דמוקרטית.
17:50
It's a change to let democracy survive,
318
1070460
4880
זהו שינוי שנועד לאפשר לדמוקרטיה לשרוד,
17:55
given what we know technology will become.
319
1075380
4080
לאור מה שידוע לנו על דמותה העתידה של הטכנולוגיה.
18:00
This is a terrifying moment.
320
1080940
1760
זהו רגע מפחיד.
18:03
It's an exhilarating moment.
321
1083340
1880
זהו רגע מלהיב.
18:06
Long before superintelligence, long before AGI threatens us,
322
1086340
4680
הרבה לפני בינת העל, הרבה לפני איום הבינה המלאכותית הכללית,
18:11
a different AI threatens us.
323
1091060
2680
יש בינה מלאכותית אחרת שמאיימת עלינו.
18:14
But there is something to do while we still can do something.
324
1094340
4400
אבל יש מה לעשות, כל עוד ביכולתנו לעשות משהו.
18:19
We should know enough now
325
1099460
2640
עכשיו אנו אמורים לדעת מספיק
18:22
to know we can't trust democracy just now.
326
1102100
3240
כדי לדעת שכרגע איננו יכולים לסמוך על הדמוקרטיה.
18:25
We should see that we still have time to build something different.
327
1105820
4960
עלינו להבין שיש לנו עדיין זמן כדי לבנות משהו שונה.
18:30
We should act with the love that makes anything possible,
328
1110780
6840
עלינו לפעול מתוך האהבה שמאפשרת הכל,
18:37
not because we know we will succeed.
329
1117660
3160
לא משום שברור לנו שנצליח.
18:40
I'm pretty sure we won't.
330
1120860
2360
אני די בטוח שלא.
18:45
But because this is what love means.
331
1125860
4720
אלא משום שזו משמעותה של אהבה.
18:51
You do whatever you can,
332
1131860
2280
אתה עושה ככל יכולתך,
18:54
whatever the odds, for your children,
333
1134180
2480
ולא משנה מהם הסיכויים, למען ילדיך,
18:56
for your family, for your country, for humanity
334
1136660
5040
למען משפחתך, למען ארצך, למען האנושות
19:01
while there is still time,
335
1141740
2960
כל עוד יש זמן,
19:04
while our robot overlord is still just a sci-fi fantasy.
336
1144700
5360
כל עוד אדוננו הרובוט הוא רק פנטזיית מד“ב.
19:10
Thank you very much.
337
1150820
1600
תודה רבה לכם.
(מחיאות כפיים)
19:12
(Applause)
338
1152460
2080
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7