What tech companies know about your kids | Veronica Barassi

84,880 views ・ 2020-07-03

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Translator: Leslie Gauthier Reviewer: Thu Ha Tran
Mỗi ngày, mỗi tuần,
ta đều đồng ý với các điều khoản và điều kiện.
Và khi làm điều này,
ta đã trao cho các công ty quyền hợp pháp
00:12
Every day, every week,
1
12792
2267
để làm bất kỳ điều gì họ muốn với dữ liệu của chúng ta
00:15
we agree to terms and conditions.
2
15083
2185
và với dữ liệu của con cái chúng ta.
00:17
And when we do this,
3
17292
1476
00:18
we provide companies with the lawful right
4
18792
2476
Điều này khiến chúng tôi tự hỏi:
00:21
to do whatever they want with our data
5
21292
3684
chúng ta đã cho họ bao nhiêu thông tin về con cái mình,
00:25
and with the data of our children.
6
25000
2375
và chúng có hệ lụy gì?
00:28
Which makes us wonder:
7
28792
2976
Tôi là nhà nhân chủng học
00:31
how much data are we giving away of children,
8
31792
2892
và cũng là mẹ của hai bé gái.
00:34
and what are its implications?
9
34708
2000
Và tôi đã bắt đầu quan tâm đến vấn đề này từ năm 2015,
00:38
I'm an anthropologist,
10
38500
1393
khi tôi chợt nhận ra rằng có rất nhiều,
00:39
and I'm also the mother of two little girls.
11
39917
2601
một lượng khổng lồ dấu vết dữ liệu
00:42
And I started to become interested in this question in 2015
12
42542
4476
về con cái chúng ta đang được tạo ra và thu thập.
00:47
when I suddenly realized that there were vast --
13
47042
2726
Vậy nên tôi đã làm một dự án nghiên cứu
00:49
almost unimaginable amounts of data traces
14
49792
3017
tên là Công dân Dữ liệu Trẻ em,
00:52
that are being produced and collected about children.
15
52833
3167
và mục tiêu của tôi là tìm ra câu trả lời.
00:56
So I launched a research project,
16
56792
1976
Chắc các bạn đang nghĩ tôi đến đây để trách các bạn
00:58
which is called Child Data Citizen,
17
58792
2476
vì đã đăng ảnh con mình lên các trang mạng xã hội,
01:01
and I aimed at filling in the blank.
18
61292
2125
nhưng đó không phải vấn đề.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Vấn đề lớn hơn so với hành động “cha mẹ chia sẻ” đó nhiều.
01:07
for posting photos of your children on social media,
20
67625
2768
Nó nằm ở hệ thống, không phải cá nhân.
01:10
but that's not really the point.
21
70417
2142
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Lỗi không nằm ở bạn hay thói quen của bạn.
01:16
This is about systems, not individuals.
23
76792
4101
Lần đầu tiên trong lịch sử,
chúng ta theo dõi dữ liệu cá nhân của trẻ em
01:20
You and your habits are not to blame.
24
80917
2291
ngay cả trước khi chúng ra đời,
đôi khi là từ lúc thụ thai,
01:24
For the very first time in history,
25
84833
2851
rồi trong suốt quãng đời của chúng.
01:27
we are tracking the individual data of children
26
87708
2560
Bạn thấy đấy, khi cặp vợ chồng quyết định có con,
01:30
from long before they're born --
27
90292
1767
họ lên mạng tra cứu “các phương pháp thụ thai “,
01:32
sometimes from the moment of conception,
28
92083
2685
01:34
and then throughout their lives.
29
94792
2351
hay tải về các ứng dụng theo dõi rụng trứng.
01:37
You see, when parents decide to conceive,
30
97167
3101
Khi đã có thai,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
họ đăng hình siêu âm của con trên mạng xã hội,
01:43
or they download ovulation-tracking apps.
32
103292
2750
rồi họ tải các ứng dụng mang thai
hoặc tham khảo bác sĩ Google về đủ loại vấn đề,
01:47
When they do get pregnant,
33
107250
2601
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
chẳng hạn như
"nguy cơ sẩy thai khi đi máy bay"
01:53
they download pregnancy apps
35
113042
2017
hay "co thắt bụng tiền thai kỳ".
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
Tôi biết vì tôi đã từng làm như vậy,
01:58
like, you know --
37
118833
1518
rất nhiều lần.
02:00
for "miscarriage risk when flying"
38
120375
2559
Và rồi khi em bé chào đời, họ theo dõi từng giấc ngủ,
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
từng bữa ăn,
02:05
I know because I've done it --
40
125750
1809
từng sự kiện trong đời bằng đủ loại công nghệ.
02:07
and many times.
41
127583
1625
Và tất cả các loại công nghệ này
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
chuyển dữ liệu sức khỏe và hành vi riêng tư nhất của em bé thành lợi nhuận
02:13
every feed,
43
133292
1267
02:14
every life event on different technologies.
44
134583
2584
bằng cách chia sẻ với nhau.
02:18
And all of these technologies
45
138083
1476
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
Để tôi giải thích cách hoạt động của nó,
năm 2019, Tạp Chí Y Khoa Anh đã công bố nghiên cứu cho thấy
02:25
by sharing it with others.
47
145750
1792
cứ 24 ứng dụng sức khỏe di động
02:28
So to give you an idea of how this works,
48
148583
2143
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
thì có 19 cái chia sẻ thông tin cho bên thứ ba.
02:35
that out of 24 mobile health apps,
50
155958
3643
Và bên thứ ba này lại chia sẻ thông tin đó với 216 tổ chức khác.
02:39
19 shared information with third parties.
51
159625
3458
Trong số 216 bên thứ tư này,
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
chỉ có ba bên thuộc mảng sức khỏe.
Số còn lại có quyền truy cập dữ liệu này là các công ty công nghệ lớn
02:50
Of these 216 other fourth parties,
53
170875
3434
như Google, Facebook hay Oracle,
02:54
only three belonged to the health sector.
54
174333
3143
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
họ là những công ty quảng cáo kỹ thuật số
và còn có công ty báo cáo tín dụng tiêu dùng.
03:02
like Google, Facebook or Oracle,
56
182042
3517
Vậy là bạn hiểu đúng rồi đó:
03:05
they were digital advertising companies
57
185583
2601
các công ty quảng cáo và tín dụng có lẽ đã có được điểm dữ liệu về trẻ sơ sinh.
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
Nhưng các ứng dụng di động, web tìm kiếm hay mạng xã hội
03:13
So you get it right:
59
193125
1434
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
thực ra chỉ là phần nổi của tảng băng
vì con cái chúng ta còn bị vô vàn công nghệ khác theo dõi
03:21
But mobile apps, web searches and social media
61
201125
2768
trong cuộc sống hàng ngày.
03:23
are really just the tip of the iceberg,
62
203917
3101
Chúng bị theo dõi bởi công nghệ và trợ lý ảo gắn trong nhà.
03:27
because children are being tracked by multiple technologies
63
207042
2851
Chúng bị theo dõi bởi nền tảng giáo dục
03:29
in their everyday lives.
64
209917
1726
và công nghệ giáo dục ở trường.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
Chúng bị theo dõi bởi hồ sơ mạng
và các cổng mạng tại văn phòng bác sĩ.
03:35
They're tracked by educational platforms
66
215833
1976
Chúng bị theo dõi bởi đồ chơi kết nối Internet,
03:37
and educational technologies in their schools.
67
217833
2185
các trò chơi trực tuyến
và vô số các công nghệ khác.
03:40
They're tracked by online records
68
220042
1601
03:41
and online portals at their doctor's office.
69
221667
3017
Trong quá trình nghiên cứu,
03:44
They're tracked by their internet-connected toys,
70
224708
2351
nhiều phụ huynh đã gặp tôi và hỏi: “Thế thì sao?
03:47
their online games
71
227083
1310
03:48
and many, many, many, many other technologies.
72
228417
2666
Chuyện con cái chúng tôi bị theo dõi thì có gì mà quan trọng?
03:52
So during my research,
73
232250
1643
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
Có gì đâu mà phải giấu.”
Chà, quan trọng đấy.
03:58
Why does it matter if my children are being tracked?
75
238083
2917
Quan trọng bởi vì ngày nay, cá nhân không chỉ bị theo dõi
04:02
We've got nothing to hide."
76
242042
1333
04:04
Well, it matters.
77
244958
1500
mà còn bị lập hồ sơ dựa vào dấu vết dữ liệu của mình.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
Trí tuệ nhân tạo và phân tích dự báo đã được dùng
để khai thác các dữ liệu về đời sống cá nhân càng nhiều càng tốt
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
từ nhiều nguồn khác nhau:
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
lịch sử gia đình, thói quen mua sắm, bình luận trên mạng xã hội.
04:21
to harness as much data as possible of an individual life
81
261083
3643
Rồi họ tập hợp các dữ liệu này lại
04:24
from different sources:
82
264750
1851
để đưa ra quyết định dựa trên dữ liệu về cá nhân đó.
04:26
family history, purchasing habits, social media comments.
83
266625
4518
Và những công nghệ này được sử dụng khắp nơi.
04:31
And then they bring this data together
84
271167
1851
Ngân hàng dùng chúng để quyết định khoản vay.
04:33
to make data-driven decisions about the individual.
85
273042
2750
Bảo hiểm dùng chúng để xác định phí bảo hiểm.
04:36
And these technologies are used everywhere.
86
276792
3434
Nhà tuyển dụng và các công ty dùng chúng
04:40
Banks use them to decide loans.
87
280250
2393
để xác định một ứng viên có phù hợp cho công việc hay không.
04:42
Insurance uses them to decide premiums.
88
282667
2375
Cả cảnh sát và tòa án cũng dùng chúng
04:46
Recruiters and employers use them
89
286208
2476
để quyết định ai đó có tiềm năng phạm tội
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
hoặc tái phạm hay không.
04:52
Also the police and courts use them
91
292750
3101
04:55
to determine whether one is a potential criminal
92
295875
3518
Chúng ta không biết hay có quyền kiểm soát
04:59
or is likely to recommit a crime.
93
299417
2625
về cách thức mà những kẻ mua, bán và xử lý dữ liệu
đang tạo hồ sơ về bản thân và con cái chúng ta.
05:04
We have no knowledge or control
94
304458
4060
Nhưng những hồ sơ này có thể tác động đến quyền của chúng ta theo nhiều cách.
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
05:12
are profiling us and our children.
96
312208
2709
Tôi cho bạn ví dụ,
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
năm 2018, tạp chí “New York Times” đã công bố thông tin
05:20
To give you an example,
98
320917
2208
là các dữ liệu thu thập được
từ các dịch vụ chuẩn bị vào đại học trực tuyến
05:25
in 2018 the "New York Times" published the news
99
325792
4059
vốn đang được dùng bởi hàng triệu học sinh trung học cả nước Mỹ,
05:29
that the data that had been gathered
100
329875
1976
05:31
through online college-planning services --
101
331875
3059
những người đang tìm chương trình hay săn học bổng đại học,
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
đã được bán cho môi giới dữ liệu giáo dục.
05:39
who are looking for a college program or a scholarship --
103
339708
3643
Những nhà nghiên cứu môi giới dữ liệu giáo dục ở Fordham
05:43
had been sold to educational data brokers.
104
343375
3042
tiết lộ rằng các công ty này đã lập hồ sơ trẻ em từ hai tuổi
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
dựa trên các tiêu chí khác nhau:
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
dân tộc, tôn giáo, giàu nghèo,
sự vụng về trong giao tiếp xã hội
05:58
on the basis of different categories:
107
358500
3059
và nhiều tiêu chí ngẫu nhiên khác.
06:01
ethnicity, religion, affluence,
108
361583
4185
Rồi họ bán các hồ sơ này cùng các thông tin của đứa trẻ như tên,
06:05
social awkwardness
109
365792
2059
06:07
and many other random categories.
110
367875
2934
địa chỉ nhà và các thông tin liên hệ khác
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
cho nhiều công ty khác nhau,
gồm cả các tổ chức thương mại lẫn nghề nghiệp,
06:15
their home address and the contact details
112
375875
2809
công ty thẻ tín dụng
và khoản vay cho sinh viên.
06:18
to different companies,
113
378708
1851
06:20
including trade and career institutions,
114
380583
2459
Nghiêm trọng hơn,
các nhà nghiên cứu ở Fordham yêu cầu một môi giới dữ liệu giáo dục
06:24
student loans
115
384083
1268
06:25
and student credit card companies.
116
385375
1750
cung cấp cho họ danh sách các cô bé từ 14 đến 15 tuổi
06:28
To push the boundaries,
117
388542
1351
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
có quan tâm đến các dịch vụ kế hoạch gia đình.
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
Và môi giới dữ liệu ấy đã đồng ý cho họ danh sách đó.
Bạn có thể tưởng tượng nó riêng tư và xâm phạm thế nào đến con cái chúng ta.
06:39
who were interested in family planning services.
120
399583
3375
06:44
The data broker agreed to provide them the list.
121
404208
2476
Nhưng môi giới dữ liệu giáo dục chỉ mới là một ví dụ thôi đấy.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Sự thật là con cái chúng ta đang bị lập hồ sơ ngoài tầm kiểm soát của chúng ta
06:52
But educational data brokers are really just an example.
123
412833
3976
và việc đó ảnh hưởng nghiêm trọng đến các cơ hội trong đời của chúng.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
Vì thế ta cần phải hỏi lại chính mình:
07:01
but that can significantly impact their chances in life.
125
421542
3416
ta có thể tin những công nghệ này trong chuyện lập hồ sơ con cái mình không?
Có thể tin không?
07:06
So we need to ask ourselves:
126
426167
3476
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
Tôi thì không.
Là một nhà nhân chủng học,
tôi tin rằng trí tuệ nhân tạo và phân tích dự báo là những công cụ tuyệt vời
07:14
Can we?
128
434375
1250
trong chẩn đoán bệnh
07:17
My answer is no.
129
437708
1250
hay chống biến đổi khí hậu.
07:19
As an anthropologist,
130
439792
1267
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
Nhưng ta cần phải bỏ niềm tin
cho rằng các công nghệ này có thể lập hồ sơ khách quan cho con người
07:24
to predict the course of a disease
132
444875
2018
07:26
or to fight climate change.
133
446917
1833
và rằng có thể dựa vào chúng để đưa ra quyết định dựa trên dữ liệu
07:30
But we need to abandon the belief
134
450000
1643
về cuộc sống cá nhân của mình.
07:31
that these technologies can objectively profile humans
135
451667
3684
Bởi chúng không thể lập hồ sơ con người.
Dấu vết dữ liệu không phải gương phản chiếu chúng ta.
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
Con người nghĩ một đằng và nói một nẻo,
07:38
about individual lives.
137
458583
1893
07:40
Because they can't profile humans.
138
460500
2559
nghĩ thế này và làm thế khác.
Dự đoán thuật toán hay ứng dụng kỹ thuật số
07:43
Data traces are not the mirror of who we are.
139
463083
3351
không thể giải thích tính khó lường và phức tạp cho trải nghiệm con người.
07:46
Humans think one thing and say the opposite,
140
466458
2101
07:48
feel one way and act differently.
141
468583
2435
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Nhưng trên tất cả,
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
các công nghệ này luôn luôn,
luôn luôn,
cách này hay cách khác, thiên vị.
08:00
But on top of that,
144
480417
1559
Bạn thấy đó, theo định nghĩa, thuật toán là tập hợp các quy tắc hoặc các bước
08:02
these technologies are always --
145
482000
2684
08:04
always --
146
484708
1268
được thiết kế để đạt một kết quả nhất định đúng không?
08:06
in one way or another, biased.
147
486000
1917
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Nhưng tập hợp quy tắc hay các bước này không khách quan,
bởi vì chúng được tạo ra bởi con người
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
trong một hoàn cảnh văn hóa đặc thù
và được định hình bởi các giá trị văn hóa nhất định.
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Vì thế khi máy móc học tập,
08:21
because they've been designed by human beings
151
501583
2143
chúng sẽ học từ những thuật toán thiên vị,
08:23
within a specific cultural context
152
503750
1726
08:25
and are shaped by specific cultural values.
153
505500
2500
và chúng cũng thường học từ những nguồn dữ liệu thiên vị nữa.
08:28
So when machines learn,
154
508667
1726
Hiện tại, chúng ta đang thấy các ví dụ đầu tiên về thiên vị thuật toán.
08:30
they learn from biased algorithms,
155
510417
2250
08:33
and they often learn from biased databases as well.
156
513625
3208
Và một số ví dụ này nói thật là rất đáng sợ.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Năm nay, Viện AI Now ở New York đã công bố một bản báo cáo
08:41
And some of these examples are frankly terrifying.
158
521583
3500
cho thấy các công nghệ trí tuệ nhân tạo
đang được sử dụng cho dự báo của cảnh sát
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
đã được dạy từ dữ liệu "bẩn".
08:50
that revealed that the AI technologies
160
530583
2393
Về cơ bản, đây là dữ liệu được thu thập
08:53
that are being used for predictive policing
161
533000
3476
trong các giai đoạn lịch sử phân biệt chủng tộc
08:56
have been trained on "dirty" data.
162
536500
3125
và những hành xử cảnh sát không minh bạch.
09:00
This is basically data that had been gathered
163
540333
2893
Vì những công nghệ này đã được dạy bằng dữ liệu “bẩn”
09:03
during historical periods of known racial bias
164
543250
4184
nên chúng không khách quan
09:07
and nontransparent police practices.
165
547458
2250
và kết quả của chúng chỉ khuếch tán và duy trì
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
sai phạm và thiên vị của cảnh sát.
09:14
they're not objective,
167
554625
1434
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
Vậy nên tôi nghĩ chúng ta đang phải đối mặt với một vấn đề cốt lõi
trong xã hội.
09:20
police bias and error.
169
560625
1625
Chúng ta đang bắt đầu tin vào công nghệ khi nói đến việc lập hồ sơ về con người.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Ta biết rằng khi lập hồ sơ con người,
09:28
in our society.
171
568333
1643
những công nghệ này sẽ luôn thiên vị
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
và không bao giờ chính xác cả.
09:35
We know that in profiling humans,
173
575750
2518
Vì thế cái ta cần bây giờ thật ra là giải pháp chính trị.
09:38
these technologies are always going to be biased
174
578292
2809
Chúng ta cần chính phủ công nhận rằng quyền dữ liệu chính là quyền con người.
09:41
and are never really going to be accurate.
175
581125
2726
09:43
So what we need now is actually political solution.
176
583875
2934
(Vỗ tay và hoan hô)
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Cho đến ngày đó, chúng ta không thể mong chờ một tương lai công bằng hơn.
09:52
(Applause and cheers)
178
592292
4083
Tôi lo các con gái của mình sẽ phải đối mặt
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
với đủ loại phân biệt và sai sót thuật toán.
Bạn thấy sự khác biệt giữa tôi và các con tôi
10:04
I worry that my daughters are going to be exposed
180
604750
2726
đó là ngoài kia chẳng có thông tin gì về thời thơ ấu của tôi cả.
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
Chắc chắn không có kho dữ liệu nào lưu lại những điều ngu ngốc tôi đã làm
10:11
You see the difference between me and my daughters
182
611250
2393
và đã nghĩ thời niên thiếu.
10:13
is that there's no public record out there of my childhood.
183
613667
3184
(Khán giả cười)
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Nhưng các con gái tôi thì khác.
10:20
and thought when I was a teenager.
185
620917
2142
Dữ liệu được thu thập từ chúng hôm nay
10:23
(Laughter)
186
623083
1500
có thể được dùng để đánh giá chúng ngày mai
10:25
But for my daughters this may be different.
187
625833
2750
và có thể cản trở ước mơ và hoài bão của chúng.
10:29
The data that is being collected from them today
188
629292
3184
10:32
may be used to judge them in the future
189
632500
3809
Tôi nghĩ đã đến lúc.
Đã đến lúc ta đứng lên.
Đã đến lúc ta đoàn kết lại
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
như những cá nhân,
những tập thể và tổ chức,
10:40
I think that's it's time.
191
640583
1518
và đến lúc ta yêu cầu nhiều công lý hơn cho dữ liệu của chúng ta
10:42
It's time that we all step up.
192
642125
1434
10:43
It's time that we start working together
193
643583
2476
và của con cái chúng ta
10:46
as individuals,
194
646083
1435
trước khi quá muộn.
10:47
as organizations and as institutions,
195
647542
2517
Xin cảm ơn.
(Vỗ tay)
10:50
and that we demand greater data justice for us
196
650083
3101
10:53
and for our children
197
653208
1393
10:54
before it's too late.
198
654625
1518
10:56
Thank you.
199
656167
1267
10:57
(Applause)
200
657458
1417
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7