What tech companies know about your kids | Veronica Barassi

84,880 views ・ 2020-07-03

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
תרגום: מיכל סלמן
00:12
Every day, every week,
1
12792
2267
כל יום, כל שבוע,
00:15
we agree to terms and conditions.
2
15083
2185
אנו מסכימים לתנאים ולהגבלות.
00:17
And when we do this,
3
17292
1476
וכשאנחנו עושים זאת,
00:18
we provide companies with the lawful right
4
18792
2476
אנחנו מספקים לחברות את הזכות החוקית
00:21
to do whatever they want with our data
5
21292
3684
לעשות מה שהם רוצים עם הנתונים שלנו
00:25
and with the data of our children.
6
25000
2375
ועם הנתונים של ילדינו.
00:28
Which makes us wonder:
7
28792
2976
מה שגורם לנו לתהות:
00:31
how much data are we giving away of children,
8
31792
2892
כמה נתונים על ילדים אנו מוסרים,
00:34
and what are its implications?
9
34708
2000
ומה ההשלכות של כך?
00:38
I'm an anthropologist,
10
38500
1393
אני אנתרופולוגית,
00:39
and I'm also the mother of two little girls.
11
39917
2601
ואני גם אימא לשתי ילדות קטנות.
00:42
And I started to become interested in this question in 2015
12
42542
4476
והתחלתי להתעניין בשאלה זו בשנת 2015
00:47
when I suddenly realized that there were vast --
13
47042
2726
כשלפתע הבנתי שהיו כמויות עצומות
00:49
almost unimaginable amounts of data traces
14
49792
3017
כמויות כמעט בלתי נתפסות של עקבות נתונים
00:52
that are being produced and collected about children.
15
52833
3167
אשר מיוצרים ונאספים בקשר לילדים.
00:56
So I launched a research project,
16
56792
1976
אז השקתי פרויקט מחקר,
00:58
which is called Child Data Citizen,
17
58792
2476
בשם נתוני אזרח ילד,
01:01
and I aimed at filling in the blank.
18
61292
2125
וכיוונתי למלא את החסר.
01:04
Now you may think that I'm here to blame you
19
64583
3018
כעת אתם עשויים לחשוב שאני כאן כדי להאשים אתכם
01:07
for posting photos of your children on social media,
20
67625
2768
על כך שאתם מפרסמים תמונות של ילדיכם במדיה החברתית,
01:10
but that's not really the point.
21
70417
2142
אבל זה לא באמת העניין.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
הבעיה היא הרבה יותר גדולה ממה שמכונה "שיתוף יתר של הורים".
01:16
This is about systems, not individuals.
23
76792
4101
העניין כאן הוא מערכות, ולא יחידים.
01:20
You and your habits are not to blame.
24
80917
2291
אתם וההרגלים שלכם אינם אשמים.
01:24
For the very first time in history,
25
84833
2851
בפעם הראשונה בהיסטוריה,
01:27
we are tracking the individual data of children
26
87708
2560
אנו עוקבים אחר הנתונים האישיים של ילדים
01:30
from long before they're born --
27
90292
1767
הרבה לפני שהם נולדים,
01:32
sometimes from the moment of conception,
28
92083
2685
לפעמים מרגע ההתעברות,
01:34
and then throughout their lives.
29
94792
2351
ואז לאורך חייהם.
01:37
You see, when parents decide to conceive,
30
97167
3101
אתם מבינים, כשההורים מחליטים להרות,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
הם נכנסים לאינטרנט לחפש אחר "דרכים להיכנס להריון"
01:43
or they download ovulation-tracking apps.
32
103292
2750
או שהם מורידים אפליקציות למעקב אחר ביוץ.
01:47
When they do get pregnant,
33
107250
2601
כשהם נכנסים להריון,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
הם מפרסמים את תוצאות האולטרסאונד של תינוקותיהם במדיה החברתית,
01:53
they download pregnancy apps
35
113042
2017
הם מורידים אפליקציות להריון
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
או שהם מתייעצים עם ד"ר גוגל בכל מיני עניינים,
01:58
like, you know --
37
118833
1518
למשל, אתם יודעים -
02:00
for "miscarriage risk when flying"
38
120375
2559
לגבי "הסיכון להפיל בזמן טיסה"
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
או "התכווצויות בטן בתחילת ההיריון."
02:05
I know because I've done it --
40
125750
1809
אני יודעת כי אני עשיתי את זה -
02:07
and many times.
41
127583
1625
הרבה פעמים.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
ואז, כשהתינוק נולד, הם עוקבים אחר כל תנומה,
02:13
every feed,
43
133292
1267
כל האכלה,
02:14
every life event on different technologies.
44
134583
2584
כל אירוע בחיים על גבי טכנולוגיות שונות.
02:18
And all of these technologies
45
138083
1476
וכל הטכנולוגיות האלה
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
הופכות את נתוני ההתנהגות והבריאות הכי אינטימיים של התינוק לרווח
02:25
by sharing it with others.
47
145750
1792
בכך שהן משתפות אותם עם אחרים.
02:28
So to give you an idea of how this works,
48
148583
2143
אז כדי לתת לכם מושג איך זה עובד,
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
בשנת 2019, כתב העת הרפואי הבריטי פרסם מחקר שהראה
02:35
that out of 24 mobile health apps,
50
155958
3643
כי מתוך 24 אפליקציות בריאות לנייד,
02:39
19 shared information with third parties.
51
159625
3458
19 שיתפו את המידע עם צד שלישי.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
ואלה שבצד שלישי שיתפו מידע עם 216 ארגונים אחרים.
02:50
Of these 216 other fourth parties,
53
170875
3434
מבין 216 אלה שהיוו צד רביעי,
02:54
only three belonged to the health sector.
54
174333
3143
רק שלושה היו שייכים לענף הבריאות.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
החברות האחרות שהייתה להן גישה לנתונים האלה היו חברות טכנולוגיה גדולות
03:02
like Google, Facebook or Oracle,
56
182042
3517
כמו גוגל, פייסבוק או אורקל,
03:05
they were digital advertising companies
57
185583
2601
הם היו חברות פרסום דיגיטלי
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
וכן הייתה סוכנות לדיווח על אשראי צרכני.
03:13
So you get it right:
59
193125
1434
אז אתם מבינים את זה נכון:
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
חברות פרסום וסוכנויות אשראי כבר עשויות להחזיק בחלקי נתונים על תינוקות קטנים.
03:21
But mobile apps, web searches and social media
61
201125
2768
אבל אפליקציות לנייד, חיפושים ברשת ומדיה חברתית
03:23
are really just the tip of the iceberg,
62
203917
3101
הם ממש רק קצה הקרחון,
03:27
because children are being tracked by multiple technologies
63
207042
2851
משום שמעקב אחר ילדים מתבצע דרך מספר טכנולוגיות
03:29
in their everyday lives.
64
209917
1726
בחיי היומיום שלהם.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
עוקבים אחריהם דרך טכנולוגיות ביתיות ועוזרים וירטואליים בבתיהם.
03:35
They're tracked by educational platforms
66
215833
1976
עוקבים אחריהם דרך פלטפורמות חינוכיות
03:37
and educational technologies in their schools.
67
217833
2185
וטכנולוגיות חינוכיות בבתי הספר שלהם.
03:40
They're tracked by online records
68
220042
1601
עוקבים אחריהם דרך רשומות מקוונות
03:41
and online portals at their doctor's office.
69
221667
3017
ופורטלים מקוונים במשרד הרופא שלהם.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
עוקבים אחריהם דרך צעצועיהם המחוברים לאינטרנט,
03:47
their online games
71
227083
1310
המשחקים המקוונים שלהם
03:48
and many, many, many, many other technologies.
72
228417
2666
ועוד הרבה, הרבה, הרבה הרבה טכנולוגיות אחרות.
03:52
So during my research,
73
232250
1643
אז במהלך המחקר שלי,
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
הורים רבים ניגשו אלי והם אמרו משהו כמו, "אז מה?"
03:58
Why does it matter if my children are being tracked?
75
238083
2917
למה זה משנה אם עוקבים אחרי הילדים שלי?
04:02
We've got nothing to hide."
76
242042
1333
"אין לנו מה להסתיר".
04:04
Well, it matters.
77
244958
1500
ובכן, זה משנה.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
זה משנה כי היום אנשים לא רק נמצאים תחת מעקב,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
הם גם מקבלים פרופיל בהתאם לעקבות הנתונים שלהם.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
בינה מלאכותית וניתוח תחזיות משמשים
04:21
to harness as much data as possible of an individual life
81
261083
3643
לרתום כמה שיותר נתונים מתוך חייו הפרטיים של אדם
04:24
from different sources:
82
264750
1851
ממקורות שונים:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
היסטוריה משפחתית, הרגלי קנייה, הערות ברשתות החברתיות.
04:31
And then they bring this data together
84
271167
1851
ואז הם מחברים את הנתונים האלה
04:33
to make data-driven decisions about the individual.
85
273042
2750
במטרה לקבל החלטות מונחות נתונים על הפרט.
04:36
And these technologies are used everywhere.
86
276792
3434
והטכנולוגיות האלה מנוצלות בכל מקום.
04:40
Banks use them to decide loans.
87
280250
2393
בנקים משתמשים בהן כדי להחליט על הלוואות.
04:42
Insurance uses them to decide premiums.
88
282667
2375
חברות ביטוח משתמשות בהן כדי להחליט על פרמיות.
04:46
Recruiters and employers use them
89
286208
2476
מגייסים ומעסיקים משתמשים בהן
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
כדי להחליט אם אדם מתאים למשרה או לא.
04:52
Also the police and courts use them
91
292750
3101
גם המשטרה ובתי המשפט משתמשים בהן
04:55
to determine whether one is a potential criminal
92
295875
3518
כדי לקבוע אם אדם הוא עבריין פוטנציאלי
04:59
or is likely to recommit a crime.
93
299417
2625
או אם הוא עשוי לחזור לבצע פשע.
05:04
We have no knowledge or control
94
304458
4060
אין לנו שום ידע או שליטה
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
על הדרכים שבהן מי שקונה, מוכר ומעבד את הנתונים שלנו
05:12
are profiling us and our children.
96
312208
2709
יוצרים את הפרופיל שלנו ושל ילדינו.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
אבל הפרופילים האלה יכולים להשפיע על זכויותינו בדרכים משמעותיות.
05:20
To give you an example,
98
320917
2208
לשם ההדגמה,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
בשנת 2018 עיתון ה"ניו יורק טיימס" פרסם בחדשות
05:29
that the data that had been gathered
100
329875
1976
שהנתונים שנאספו
05:31
through online college-planning services --
101
331875
3059
דרך שירותי תכנון מכללות באינטרנט
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
שלמעשה ממולאים על ידי מיליונים של תלמידי תיכון ברחבי ארה"ב
05:39
who are looking for a college program or a scholarship --
103
339708
3643
שמחפשים תכנית לימודים במכללה או מלגה
05:43
had been sold to educational data brokers.
104
343375
3042
נמכרו למתווכים הסוחרים בנתונים חינוכיים.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
כעת, חוקרים בפורדהאם שחקרו תיווך נתונים חינוכיים
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
חשפו כי חברות אלה ערכו פרופיל של ילדים בגיל שנתיים
05:58
on the basis of different categories:
107
358500
3059
על פי קטגוריות שונות:
06:01
ethnicity, religion, affluence,
108
361583
4185
אתניות, דת, מעמד כלכלי,
06:05
social awkwardness
109
365792
2059
אי נוחות חברתית,
06:07
and many other random categories.
110
367875
2934
ועוד קטגוריות אקראיות רבות אחרות.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
לאחר מכן הם מוכרים את הפרופילים האלה יחד עם שם הילד,
06:15
their home address and the contact details
112
375875
2809
כתובת הבית ופרטי ההתקשרות שלהם
06:18
to different companies,
113
378708
1851
לחברות שונות,
06:20
including trade and career institutions,
114
380583
2459
כולל מוסדות סחר וקריירה,
06:24
student loans
115
384083
1268
הלוואות סטודנטים
06:25
and student credit card companies.
116
385375
1750
וחברות כרטיסי אשראי לסטודנטים.
06:28
To push the boundaries,
117
388542
1351
במטרה לבדוק את הגבולות,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
החוקרים בפורדהאם ביקשו ממתווך בנתונים חינוכיים
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
לספק עבורם רשימה של נערות בנות 14- 15
06:39
who were interested in family planning services.
120
399583
3375
אשר הביעו התעניינות בשירותים לתכנון משפחה.
06:44
The data broker agreed to provide them the list.
121
404208
2476
מתווך הנתונים הסכים לספק להם את הרשימה.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
אז תארו לכם כמה אינטימי וכמה פולשני הדבר עבור ילדינו.
06:52
But educational data brokers are really just an example.
123
412833
3976
אבל מתווכי נתונים חינוכיים הם באמת רק דוגמה.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
האמת היא שפרופיל ילדינו נוצר בדרכים שאיננו יכולים לשלוט בהן
07:01
but that can significantly impact their chances in life.
125
421542
3416
אבל זה יכול להשפיע באופן משמעותי על ההזדמנויות שלהם בחיים.
07:06
So we need to ask ourselves:
126
426167
3476
לכן עלינו לשאול את עצמנו:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
האם אנו יכולים לסמוך על הטכנולוגיות אלה כשמדובר ביצירת פרופיל לילדינו?
07:14
Can we?
128
434375
1250
האם אנחנו יכולים?
07:17
My answer is no.
129
437708
1250
התשובה שלי היא לא.
07:19
As an anthropologist,
130
439792
1267
כאנתרופולוגית,
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
אני מאמינה שבינה מלאכותית ותחזית נתונים יכולות להיות נהדרות
07:24
to predict the course of a disease
132
444875
2018
לחזות את מהלכה של מחלה
07:26
or to fight climate change.
133
446917
1833
או להילחם בשינויי אקלים.
07:30
But we need to abandon the belief
134
450000
1643
אבל עלינו לנטוש את האמונה
07:31
that these technologies can objectively profile humans
135
451667
3684
כי הטכנולוגיות האלה מסוגלות ליצור פרופיל אנושי באופן אובייקטיבי
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
ושאנחנו יכולים לסמוך עליהן בקבלת החלטות מונחות נתונים
07:38
about individual lives.
137
458583
1893
כשמדובר בחיי אדם.
07:40
Because they can't profile humans.
138
460500
2559
מכיוון שהן אינן מסוגלות ליצור פרופיל של אדם.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
עקבות נתונים אינן השתקפות של מי שאנחנו.
07:46
Humans think one thing and say the opposite,
140
466458
2101
בני אדם חושבים דבר אחד ואומרים את ההיפך,
07:48
feel one way and act differently.
141
468583
2435
מרגישים באופן מסוים ופועלים אחרת.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
התחזיות האלגוריתמיות או הפרקטיקות הדיגיטליות שלנו
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
אינן מסוגלות לחזות את החוויה האנושית המורכבת והבלתי צפויה.
08:00
But on top of that,
144
480417
1559
בנוסף לכך,
08:02
these technologies are always --
145
482000
2684
הטכנולוגיות האלה הן תמיד
08:04
always --
146
484708
1268
תמיד
08:06
in one way or another, biased.
147
486000
1917
בדרך זו או אחרת, מוטות.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
אתם מבינים, האלגוריתמים הם בהגדרה אוסף של כללים או שלבים
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
שתוכננו על מנת להשיג תוצאה ספציפית, בסדר?
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
אך אוסף זה של כללים או שלבים אינו יכול להיות אובייקטיבי,
08:21
because they've been designed by human beings
151
501583
2143
כי הוא עוצב על ידי בני אדם
08:23
within a specific cultural context
152
503750
1726
בהקשר תרבותי ספציפי
08:25
and are shaped by specific cultural values.
153
505500
2500
והוא מעוצב על פי ערכים תרבותיים ספציפיים.
08:28
So when machines learn,
154
508667
1726
אז כשמכונות לומדות,
08:30
they learn from biased algorithms,
155
510417
2250
הן לומדות מאלגוריתמים מוטים,
08:33
and they often learn from biased databases as well.
156
513625
3208
ולעתים קרובות הן גם לומדות ממאגרי נתונים מוטים.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
כרגע אנחנו רואים את הדוגמאות הראשונות להטיה אלגוריתמית.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
וכמה מהדוגמאות האלה ללא ספק מעוררות אימה.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
השנה מכון AI Now בניו יורק פרסם דו"ח
08:50
that revealed that the AI technologies
160
530583
2393
שגילה כי טכנולוגיות בינה מלאכותית
08:53
that are being used for predictive policing
161
533000
3476
הנמצאות בשימוש השיטור המנבא
08:56
have been trained on "dirty" data.
162
536500
3125
הוכשרו באמצעות נתונים "מזוהמים".
09:00
This is basically data that had been gathered
163
540333
2893
אלו בעצם נתונים אשר נאספו
09:03
during historical periods of known racial bias
164
543250
4184
במהלך תקופות היסטוריות הידועות בהטייתן הגזעית
09:07
and nontransparent police practices.
165
547458
2250
ושיטות עבודה לא שקופות של המשטרה.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
מכיוון שטכנולוגיות אלה מאומנות בעזרת נתונים מזוהמים,
09:14
they're not objective,
167
554625
1434
הן אינן אובייקטיביות,
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
והתוצאות שלהן רק מעצימות ומובילות
09:20
police bias and error.
169
560625
1625
להטיה ולטעויות של המשטרה.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
אז אני חושבת שאנו עומדים מול בעיה עקרונית
09:28
in our society.
171
568333
1643
בחברה שלנו.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
אנו מתחילים לסמוך על טכנולוגיות כשמדובר ביצירת פרופיל של בני אדם.
09:35
We know that in profiling humans,
173
575750
2518
אנו יודעים שבניסיון ליצור פרופיל של אדם,
09:38
these technologies are always going to be biased
174
578292
2809
הטכנולוגיות האלה תמיד יהיו מוטות
09:41
and are never really going to be accurate.
175
581125
2726
ולעולם לא יהיו מדויקות באמת.
09:43
So what we need now is actually political solution.
176
583875
2934
אז מה שאנחנו צריכים עכשיו הוא למעשה פתרון פוליטי.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
אנחנו צריכים שממשלות יכירו בכך שזכויות הנתונים שלנו הן זכויות האדם שלנו.
09:52
(Applause and cheers)
178
592292
4083
(מחיאות כפיים וצהלות)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
עד שזה יקרה, איננו יכולים לצפות לעתיד צודק יותר.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
אני דואגת שבנותיי יהיו חשופות
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
לכל מיני אפליות וטעויות אלגוריתמיות.
10:11
You see the difference between me and my daughters
182
611250
2393
תבינו, ההבדל ביני לבין בנותיי
10:13
is that there's no public record out there of my childhood.
183
613667
3184
הוא שאין רשומה ציבורית שם בחוץ על תקופת הילדות שלי.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
כמובן שאין מסד נתונים על כל הדברים המטופשים שעשיתי
10:20
and thought when I was a teenager.
185
620917
2142
וחשבתי כשהייתי נערה.
10:23
(Laughter)
186
623083
1500
(צחוק)
10:25
But for my daughters this may be different.
187
625833
2750
אבל עבור בנותיי זה עשוי להיות שונה.
10:29
The data that is being collected from them today
188
629292
3184
הנתונים שנאספים עליהן היום
10:32
may be used to judge them in the future
189
632500
3809
עלולים לשמש אמצעי לשפוט אותן בעתיד
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
ויכולים למנוע את התקוות ואת החלומות שלהן.
10:40
I think that's it's time.
191
640583
1518
אני חושבת שהגיע הזמן.
10:42
It's time that we all step up.
192
642125
1434
הגיע הזמן שכולנו ניקח חלק.
10:43
It's time that we start working together
193
643583
2476
הגיע הזמן שנתחיל לעבוד ביחד
10:46
as individuals,
194
646083
1435
כיחידים,
10:47
as organizations and as institutions,
195
647542
2517
כארגונים וכמוסדות,
10:50
and that we demand greater data justice for us
196
650083
3101
ושנדרוש צדק נתונים גדול יותר עבורנו
10:53
and for our children
197
653208
1393
ועבור ילדינו
10:54
before it's too late.
198
654625
1518
לפני שיהיה מאוחר מדיי.
10:56
Thank you.
199
656167
1267
תודה רבה.
10:57
(Applause)
200
657458
1417
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7