下の英語字幕をダブルクリックすると動画を再生できます。
00:00
Transcriber: Leslie Gauthier
Reviewer: Joanna Pietrulewicz
0
0
7000
翻訳: Leslie Gauthier
校正: Eriko Tsukamoto
毎日 毎週
私たちは利用規約に同意します
これを行うと
企業に対して合法的な権利を提供します
00:12
Every day, every week,
1
12792
2267
それによって
私たちやその子供のデータについて
00:15
we agree to terms and conditions.
2
15083
2185
望むことなら
何をしても良いことになるのです
00:17
And when we do this,
3
17292
1476
00:18
we provide companies with the lawful right
4
18792
2476
私達は不思議に思います
00:21
to do whatever they want with our data
5
21292
3684
子供たちのデータを
どれくらい漏らしてしまっているのか
00:25
and with the data of our children.
6
25000
2375
そして それは何を意味するのか
00:28
Which makes us wonder:
7
28792
2976
私は人類学者です
00:31
how much data are we giving
away of children,
8
31792
2892
二人の幼い女の子の母親でもあります
00:34
and what are its implications?
9
34708
2000
私は 2015年に
この疑問に興味を持ち始めました
00:38
I'm an anthropologist,
10
38500
1393
子供について生成されたり収集されたー
00:39
and I'm also the mother
of two little girls.
11
39917
2601
ほとんど想像もできないほど膨大な量の
00:42
And I started to become interested
in this question in 2015
12
42542
4476
データ追跡があるのに突然気付いたのです
00:47
when I suddenly realized
that there were vast --
13
47042
2726
そこで研究プロジェクトを立ち上げました
00:49
almost unimaginable amounts of data traces
14
49792
3017
それは
「チャイルド データ シチズン」と呼ばれ
00:52
that are being produced
and collected about children.
15
52833
3167
不明確なことを明らかにすることを目指しました
00:56
So I launched a research project,
16
56792
1976
あなたは自分の子供の写真を
ソーシャルメディアに載せたことを
00:58
which is called Child Data Citizen,
17
58792
2476
私が責めるためにここにいると
思うかもしれませんが
01:01
and I aimed at filling in the blank.
18
61292
2125
実際のところ それが主旨ではありません
01:04
Now you may think
that I'm here to blame you
19
64583
3018
子どもの写真をネットに流す
よりも 遙かに大きな問題です
01:07
for posting photos
of your children on social media,
20
67625
2768
これは個人ではなくシステムに関する事です
01:10
but that's not really the point.
21
70417
2142
01:12
The problem is way bigger
than so-called "sharenting."
22
72583
3417
あなたとあなたの習慣のせいではありません
01:16
This is about systems, not individuals.
23
76792
4101
歴史上まさに初めて
生まれるずっと前から
01:20
You and your habits are not to blame.
24
80917
2291
子供たちの個人的なデータが追跡されています
時には妊娠の瞬間から
01:24
For the very first time in history,
25
84833
2851
そして人生を通して
01:27
we are tracking
the individual data of children
26
87708
2560
いいですか 親が子づくりを決心するとき
01:30
from long before they're born --
27
90292
1767
二人はオンラインで「妊娠の方法」を
探しに行ったり
01:32
sometimes from the moment of conception,
28
92083
2685
01:34
and then throughout their lives.
29
94792
2351
排卵追跡アプリを
ダウンロードしたりします
01:37
You see, when parents decide to conceive,
30
97167
3101
妊娠すると
01:40
they go online to look
for "ways to get pregnant,"
31
100292
2976
胎児の超音波を
ソーシャルメディアに投稿したり
01:43
or they download ovulation-tracking apps.
32
103292
2750
妊娠アプリをダウンロードしたり
Google先生にあらゆる事を
相談したりします
01:47
When they do get pregnant,
33
107250
2601
01:49
they post ultrasounds
of their babies on social media,
34
109875
3143
例えば
「飛行時の流産の確率」とか
01:53
they download pregnancy apps
35
113042
2017
「妊娠初期の腹部の痙攣」とかです
01:55
or they consult Dr. Google
for all sorts of things,
36
115083
3726
私も同じ事をしたので知っています
01:58
like, you know --
37
118833
1518
何度もしました
02:00
for "miscarriage risk when flying"
38
120375
2559
そして赤ちゃんが生まれると
企業は 全ての睡眠
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
全ての食事
02:05
I know because I've done it --
40
125750
1809
その他日常生活の全ての出来事を
様々な技術で追跡します
02:07
and many times.
41
127583
1625
そして これらの技術は全て
02:10
And then, when the baby is born,
they track every nap,
42
130458
2810
赤ちゃんの最も詳細な行動と健康の
データを 他者と共有することで
02:13
every feed,
43
133292
1267
02:14
every life event
on different technologies.
44
134583
2584
それらのデータを利益に変えます
02:18
And all of these technologies
45
138083
1476
02:19
transform the baby's most intimate
behavioral and health data into profit
46
139583
6143
これがどのように機能するかをお伝えするために
2019年英国医事ジャーナルは
ある研究を発表しました
02:25
by sharing it with others.
47
145750
1792
24の携帯用健康アプリのうち
02:28
So to give you an idea of how this works,
48
148583
2143
02:30
in 2019, the British Medical Journal
published research that showed
49
150750
5184
19のアプリが第三者と
情報を共有していました
02:35
that out of 24 mobile health apps,
50
155958
3643
そしてこれらの第三者は
216の他の組織と情報を共有していました
02:39
19 shared information with third parties.
51
159625
3458
これらの216の他の組織のうち
02:44
And these third parties shared information
with 216 other organizations.
52
164083
5834
たった3つの組織だけが健康分野のものでした
そのデータを利用した他の会社は
大きなハイテク企業でした
02:50
Of these 216 other fourth parties,
53
170875
3434
グーグル フェイスブック オラクル
などのように
02:54
only three belonged to the health sector.
54
174333
3143
02:57
The other companies that had access
to that data were big tech companies
55
177500
4518
それらは デジタル広告会社でした
そして消費者信用調査機関もいました
03:02
like Google, Facebook or Oracle,
56
182042
3517
もうお分かりでしょう
03:05
they were digital advertising companies
57
185583
2601
広告会社と信用機関は小さな赤ちゃんの
データポイントをすでに持っています
03:08
and there was also
a consumer credit reporting agency.
58
188208
4125
しかし 携帯用アプリや
ウェブ検索 ソーシャルメディアは
03:13
So you get it right:
59
193125
1434
03:14
ad companies and credit agencies may
already have data points on little babies.
60
194583
5125
氷山の一角でしかありません
子供たちは 多様な技術によって
毎日の生活を
03:21
But mobile apps,
web searches and social media
61
201125
2768
追跡されているからです
03:23
are really just the tip of the iceberg,
62
203917
3101
子供たちは 家の中で家庭用技術や
仮想助手によって追跡されています
03:27
because children are being tracked
by multiple technologies
63
207042
2851
子供たちは 学校では教育プラットフォームと
03:29
in their everyday lives.
64
209917
1726
教育用の技術によって追跡されています
03:31
They're tracked by home technologies
and virtual assistants in their homes.
65
211667
4142
医療機関のオンライン記録と
オンラインポータルによって
追跡されています
03:35
They're tracked by educational platforms
66
215833
1976
子供たちは
インターネットに接続された玩具や
03:37
and educational technologies
in their schools.
67
217833
2185
オンラインゲーム
非常に多くの他の技術によって追跡されます
03:40
They're tracked by online records
68
220042
1601
03:41
and online portals
at their doctor's office.
69
221667
3017
そういうわけで 私の研究中に
03:44
They're tracked by their
internet-connected toys,
70
224708
2351
多くの親たちが来て言うには こんな調子です
「それがどうしたんですか?
03:47
their online games
71
227083
1310
03:48
and many, many, many,
many other technologies.
72
228417
2666
何故 私たちの子供の情報が
追跡されると 問題なんですか?
03:52
So during my research,
73
232250
1643
03:53
a lot of parents came up to me
and they were like, "So what?
74
233917
4142
私たちに隠すべき事はありません」
ですが これは問題なんです
03:58
Why does it matter
if my children are being tracked?
75
238083
2917
今日において 個人は
追跡されているだけではなく
04:02
We've got nothing to hide."
76
242042
1333
04:04
Well, it matters.
77
244958
1500
データ追跡に基づいて人物像を
プロファイリングされているから問題なのです
04:07
It matters because today individuals
are not only being tracked,
78
247083
6018
人工知能と予測分析が
様々な情報源から可能な限りの
個人の生活のデータを利用するために
04:13
they're also being profiled
on the basis of their data traces.
79
253125
4101
使われています
04:17
Artificial intelligence and predictive
analytics are being used
80
257250
3809
家族歴 購買習慣
ソーシャルメディアのコメントなど
04:21
to harness as much data as possible
of an individual life
81
261083
3643
そしてこのデータをまとめて
04:24
from different sources:
82
264750
1851
その個人についてデータ本位で決定します
04:26
family history, purchasing habits,
social media comments.
83
266625
4518
そして こうした技術は
どんな分野でも使われています
04:31
And then they bring this data together
84
271167
1851
銀行は ローンの決定に使います
04:33
to make data-driven decisions
about the individual.
85
273042
2750
保険は 保険料の決定に使います
04:36
And these technologies
are used everywhere.
86
276792
3434
採用担当者と雇用主は
04:40
Banks use them to decide loans.
87
280250
2393
その人がその仕事に適しているかどうか
決定するのに使います
04:42
Insurance uses them to decide premiums.
88
282667
2375
また 警察と裁判所は ある人が
04:46
Recruiters and employers use them
89
286208
2476
潜在的な犯罪者かどうか
04:48
to decide whether one
is a good fit for a job or not.
90
288708
2917
あるいは 再犯しそうかどうか
判断するのに使います
04:52
Also the police and courts use them
91
292750
3101
04:55
to determine whether one
is a potential criminal
92
295875
3518
データを購入 販売 処理する人たちが
04:59
or is likely to recommit a crime.
93
299417
2625
私たちや子供の人物像を特定する方法について
私たちは知らず 管理もしていません
05:04
We have no knowledge or control
94
304458
4060
しかし これらの特定された人物像は
私たちの権利に大いに影響を与えます
05:08
over the ways in which those who buy,
sell and process our data
95
308542
3642
05:12
are profiling us and our children.
96
312208
2709
例をあげましょう
05:15
But these profiles can come to impact
our rights in significant ways.
97
315625
4042
2018年『ニューヨークタイムス』は
ある記事を出しました
05:20
To give you an example,
98
320917
2208
オンラインの大学進学準備サービスを通じて
オンラインの大学進学準備サービスを通じて
05:25
in 2018 the "New York Times"
published the news
99
325792
4059
大学のプログラムや奨学金を探す
全米の何百万人もの高校生が
05:29
that the data that had been gathered
100
329875
1976
05:31
through online
college-planning services --
101
331875
3059
実際に回答することにより
収集されたデータが
05:34
that are actually completed by millions
of high school kids across the US
102
334958
4726
教育データ仲買人に
売り渡されていました
05:39
who are looking for a college
program or a scholarship --
103
339708
3643
今や 教育データ仲買人を研究していた
フォーダム大学の附属研究機関の研究者たちは
05:43
had been sold to educational data brokers.
104
343375
3042
これらの企業が様々な分類に基づいて
わずか2歳の子供たちを
05:47
Now, researchers at Fordham
who studied educational data brokers
105
347792
5434
特定していた事を明らかにしました
05:53
revealed that these companies
profiled kids as young as two
106
353250
5226
民族性や宗教 金銭的豊かさ
社会的不適応
05:58
on the basis of different categories:
107
358500
3059
その他多くの不特定多数の分類です
06:01
ethnicity, religion, affluence,
108
361583
4185
次に これらの個人情報を
その子の名前や
06:05
social awkwardness
109
365792
2059
06:07
and many other random categories.
110
367875
2934
自宅の住所 詳細な連絡先とともに
06:10
And then they sell these profiles
together with the name of the kid,
111
370833
5018
様々な会社に販売します
そうした会社には
商業及び職業訓練機関
06:15
their home address and the contact details
112
375875
2809
学生ローン会社
学生クレジットカード会社を含みます
06:18
to different companies,
113
378708
1851
06:20
including trade and career institutions,
114
380583
2459
境界を広げるために
フォーダム大の研究者たちは
教育データ仲買人に
06:24
student loans
115
384083
1268
06:25
and student credit card companies.
116
385375
1750
家族計画サービスに興味がある
14歳から15歳の女子のリストを
06:28
To push the boundaries,
117
388542
1351
06:29
the researchers at Fordham
asked an educational data broker
118
389917
3809
提供するよう求めました
06:33
to provide them with a list
of 14-to-15-year-old girls
119
393750
5809
そのデータ仲買人はリストを
提供することに同意しました
そのデータが子供たちにとってどれほど
私的で立ち入ったものかを想像してください
06:39
who were interested
in family planning services.
120
399583
3375
06:44
The data broker agreed
to provide them the list.
121
404208
2476
しかし教育データ仲買人はほんの一例です
06:46
So imagine how intimate
and how intrusive that is for our kids.
122
406708
4875
真実は 子供たちの人物像の特定が
私たちに管理できない一方で
06:52
But educational data brokers
are really just an example.
123
412833
3976
人生の機会に大きな影響を 与えうる方法で
なされているということです
06:56
The truth is that our children are being
profiled in ways that we cannot control
124
416833
4685
ですから 私たちは
自らに問い掛ける必要があります
07:01
but that can significantly impact
their chances in life.
125
421542
3416
子供たちの人物特定に関して 私たちは
これらの技術を信頼できるだろうか?
07:06
So we need to ask ourselves:
126
426167
3476
どうでしょうか?
07:09
can we trust these technologies
when it comes to profiling our children?
127
429667
4684
私の答えは「いいえ」です
1人の人類学者として
人工知能や予知分析は
07:14
Can we?
128
434375
1250
病気の経過を予測したり
07:17
My answer is no.
129
437708
1250
気候変動と戦うために
素晴らしい力を持ちうると信じています
07:19
As an anthropologist,
130
439792
1267
07:21
I believe that artificial intelligence
and predictive analytics can be great
131
441083
3768
しかしこれらの技術が
客観的に人物像を特定したり
個人の人生において
07:24
to predict the course of a disease
132
444875
2018
07:26
or to fight climate change.
133
446917
1833
データ本位の決定を下す際に
頼ったりすることができるという考えは
07:30
But we need to abandon the belief
134
450000
1643
捨てる必要があります
07:31
that these technologies
can objectively profile humans
135
451667
3684
そうした技術は 人間を描き出せないからです
データ追跡は私たちが
何者であるかを示す鏡ではありません
07:35
and that we can rely on them
to make data-driven decisions
136
455375
3184
人間は あることを考えた時
それと反対のことを言うことがあります
07:38
about individual lives.
137
458583
1893
07:40
Because they can't profile humans.
138
460500
2559
感じ方とは異なる行動をとることがあります
アルゴリズムによる予測や
デジタルによる実践は
07:43
Data traces are not
the mirror of who we are.
139
463083
3351
人間の経験の予測不可能性
複雑さについては説明できません
07:46
Humans think one thing
and say the opposite,
140
466458
2101
07:48
feel one way and act differently.
141
468583
2435
07:51
Algorithmic predictions
or our digital practices
142
471042
2476
しかし 何よりも
07:53
cannot account for the unpredictability
and complexity of human experience.
143
473542
5166
これらの技術は 常に
常に
何らか 偏っています
08:00
But on top of that,
144
480417
1559
アルゴリズムは
特定の成果を得るために設計された
08:02
these technologies are always --
145
482000
2684
08:04
always --
146
484708
1268
決まりや手順のまとまりに拠っています
そうですよね?
08:06
in one way or another, biased.
147
486000
1917
08:09
You see, algorithms are by definition
sets of rules or steps
148
489125
5059
しかしこうした決まりや手順のまとまりは
客観的であり得ません
特定の文化的背景の中で
08:14
that have been designed to achieve
a specific result, OK?
149
494208
3709
人間が設計したものだからです
そして 特定の文化的価値観で
形作られているからです
08:18
But these sets of rules or steps
cannot be objective,
150
498833
2726
つまり 機械が学習するとき
08:21
because they've been designed
by human beings
151
501583
2143
偏った考えによるアルゴリズムから学びます
08:23
within a specific cultural context
152
503750
1726
08:25
and are shaped
by specific cultural values.
153
505500
2500
また 偏った考えによる
データベースからも学びます
08:28
So when machines learn,
154
508667
1726
正に今 私たちはアルゴリズムによる偏見の
最初の例を目撃しています
08:30
they learn from biased algorithms,
155
510417
2250
08:33
and they often learn
from biased databases as well.
156
513625
3208
そしてこれらの例のいくつかは
率直に言って恐ろしいものです
08:37
At the moment, we're seeing
the first examples of algorithmic bias.
157
517833
3726
今年 ニューヨークのAI Now Instituteが
ある報告書を公表しました
08:41
And some of these examples
are frankly terrifying.
158
521583
3500
これによると
予測警察活動に使われているAI技術は
08:46
This year, the AI Now Institute
in New York published a report
159
526500
4059
「汚れた」データについて訓練されていたことが
明らかになりました
08:50
that revealed that the AI technologies
160
530583
2393
これらは 基本的に
08:53
that are being used
for predictive policing
161
533000
3476
人種的な偏見と不透明な
警察の活動で 知られている時代に
08:56
have been trained on "dirty" data.
162
536500
3125
収集されたデータです
09:00
This is basically data
that had been gathered
163
540333
2893
これらの技術は 汚れたデータで
訓練されているので
09:03
during historical periods
of known racial bias
164
543250
4184
客観的ではありません
09:07
and nontransparent police practices.
165
547458
2250
そしてそれらが導き出す答えは
警察の偏見と過ちを
09:10
Because these technologies
are being trained with dirty data,
166
550542
4059
誇張し 犯すものです
09:14
they're not objective,
167
554625
1434
09:16
and their outcomes are only
amplifying and perpetrating
168
556083
4518
私たちは社会の根本的な問題に
直面していると思います
09:20
police bias and error.
169
560625
1625
私たちは人間の人物特定に関し
技術を信頼し始めています
09:25
So I think we are faced
with a fundamental problem
170
565167
3142
私たちは 人物特定において
09:28
in our society.
171
568333
1643
これらの技術は常に偏ることを
知っています
09:30
We are starting to trust technologies
when it comes to profiling human beings.
172
570000
4792
正確になる事は現実的には
決してないことを知っています
09:35
We know that in profiling humans,
173
575750
2518
私たちに今必要なことは
実際的な政治的解決です
09:38
these technologies
are always going to be biased
174
578292
2809
データの権利が私たちの人権であることを
政府が認識する必要があります
09:41
and are never really going to be accurate.
175
581125
2726
09:43
So what we need now
is actually political solution.
176
583875
2934
(拍手と歓声)
09:46
We need governments to recognize
that our data rights are our human rights.
177
586833
4709
これが実現するまでは
私たちはより公正な未来を期待できません
09:52
(Applause and cheers)
178
592292
4083
あらゆる種類のアルゴリズムによる偏見と誤りに
09:59
Until this happens, we cannot hope
for a more just future.
179
599833
4084
私の娘たちがさらされることを心配しています
私と娘たちの違いは
10:04
I worry that my daughters
are going to be exposed
180
604750
2726
私が子供の頃には誰からも分かるところに
公開された記録がなかったことです
10:07
to all sorts of algorithmic
discrimination and error.
181
607500
3726
10代の頃の 全ての馬鹿げた行いや考え
についてのデータベースは
10:11
You see the difference
between me and my daughters
182
611250
2393
間違いなく存在しません
10:13
is that there's no public record
out there of my childhood.
183
613667
3184
(笑)
10:16
There's certainly no database
of all the stupid things that I've done
184
616875
4018
しかし 私の娘たちにとっては
異なるかもしれません
10:20
and thought when I was a teenager.
185
620917
2142
今日収集された彼女たちのデータは
10:23
(Laughter)
186
623083
1500
将来 彼女たちを評価するために
使われるかもしれません
10:25
But for my daughters
this may be different.
187
625833
2750
そして 彼女たちの希望や夢を
妨げることになり得るでしょう
10:29
The data that is being collected
from them today
188
629292
3184
時が来ていると思います
10:32
may be used to judge them in the future
189
632500
3809
私たちが皆で取り組む時です
私たちが一緒に取り組み始める時です
10:36
and can come to prevent
their hopes and dreams.
190
636333
2959
個人として
組織や機関として
取り組み始める時です
10:40
I think that's it's time.
191
640583
1518
自分たち自身 そして子供たちのために
10:42
It's time that we all step up.
192
642125
1434
10:43
It's time that we start working together
193
643583
2476
より優れたデータの公正性を
求める時です
10:46
as individuals,
194
646083
1435
手遅れになる前に
動くのです
10:47
as organizations and as institutions,
195
647542
2517
ありがとうございます
(拍手)
10:50
and that we demand
greater data justice for us
196
650083
3101
10:53
and for our children
197
653208
1393
10:54
before it's too late.
198
654625
1518
10:56
Thank you.
199
656167
1267
10:57
(Applause)
200
657458
1417
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。