How Twitter needs to change | Jack Dorsey

185,541 views ・ 2019-06-07

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Moe Shoji 校正: Yasushi Aoki
00:13
Chris Anderson: What worries you right now?
0
13131
2408
(クリス・アンダーソン) どんな懸念がありますか?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Twitterの抱える問題について あなたはオープンに話してますが
00:18
What would be your top worry
2
18440
2299
現状に関して
00:20
about where things are right now?
3
20763
2049
1番の懸念は何ですか?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
(ジャック・ドーシー) 現在は 対話の健全性です
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
私たちの目的は 公共の場での対話に寄与することですが
00:30
and we have seen a number of attacks on it.
6
30084
5056
そこでたくさん攻撃を 目にしています
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
誹謗中傷や嫌がらせ行為
00:37
we've seen manipulation,
8
37613
3222
情報操作もあります
00:40
automation, human coordination, misinformation.
9
40859
4265
機械によるもの 組織的活動 誤った情報もありました
00:46
So these are all dynamics that we were not expecting
10
46134
4034
こうした動きの数々は 13年前に起業したときには
00:50
13 years ago when we were starting the company.
11
50192
3718
予想していなかった事柄です
00:53
But we do now see them at scale,
12
53934
2664
しかし それが 規模を増しています
00:56
and what worries me most is just our ability to address it
13
56622
5278
1番の懸念は 我々がそういった問題に対し
01:01
in a systemic way that is scalable,
14
61924
3108
大きな規模で体系的に 対処できるかということで
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
取り組みへの深い理解―
01:12
a transparent understanding of how we're taking action
16
72056
3105
取り組みについての クリアな理解と
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
過ちが起きた際の 厳格な是正手続きが必要です
01:18
because we will be wrong.
18
78310
2169
過ちは起きるものですから
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
(ウィットニー・ペニントン・ロジャース) 懸念されていると聞けて
01:22
that that's something that concerns you,
20
82924
1928
うれしく思います
01:24
because I think there's been a lot written about people
21
84876
2630
これまでに多くの人々が
Twitter で誹謗中傷や 嫌がらせを受けており
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
01:30
and I think no one more so than women and women of color
23
90031
4102
女性や 有色人種の女性 黒人女性は特にそうです
01:34
and black women.
24
94157
1170
01:35
And there's been data that's come out --
25
95351
1913
データにも示されています
01:37
Amnesty International put out a report a few months ago
26
97288
2909
アムネスティ・インターナショナルの 数か月前の報告では
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
黒人女性の活発なユーザーの一部が 受け取るツイートの
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
平均1割が何らかの ハラスメントだということでした
01:48
were some form of harassment.
29
108205
2099
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
だから Twitter コミュニティの 健全性について—
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
「すべての人にとっての健全さ」について 伺いたいものですが
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
具体的には 女性や有色人種の女性 黒人女性のグループについて
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
Twitterをどう安全な場に 変えていくのですか?
02:05
JD: Yeah.
34
125644
1164
(ジャック)そうですね
02:06
So it's a pretty terrible situation
35
126832
2643
かなりひどい状況ですよね
02:09
when you're coming to a service
36
129499
1619
何かのサービスを利用していて
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
理想的には 世界について 何か学びたいのに
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
ほとんどの時間を 誹謗中傷や嫌がらせを受け
02:20
receiving harassment.
39
140954
1804
その報告に費やしているなんて
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
今 最も深く掘り下げているのは プラットフォームとサービスが
02:29
that the platform naturally provides and the service provides.
41
149718
3823
自然に生み出す 動機そのものについてです
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
現在は サービスを通じて 他者に誹謗中傷をしたり
嫌がらせ行為をしたりするのが 非常に容易なシステムになっています
02:38
and to abuse others through the service,
43
158863
3664
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
残念ながら これまでのシステムはもっぱら
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
人々が嫌がらせや誹謗中傷を 報告してくれるのに頼っていました
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
なので 昨年の中頃に もっと機械学習を使おう
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
この問題に深層学習を 適用しようと決め
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
誹謗中傷が起きる場で もっと積極的な対策を講じようとしています
03:05
so that we can take the burden off the victim completely.
49
185124
3960
被害者の負担を 完全になくすのが目的です
03:09
And we've made some progress recently.
50
189108
2435
最近 進歩も見られました
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
約38%の誹謗中傷ツイートが 機械学習アルゴリズムで
自動的に検出されるようになり
03:18
by machine learning algorithms
52
198280
1715
03:20
so that people don't actually have to report them.
53
200019
2334
報告する必要がなくなりました
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
しかし 検出されたものは 人の目で確認しており
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
人による確認なしに 内容やアカウントの凍結はしていません
03:31
But that was from zero percent just a year ago.
56
211114
2759
とはいえ 1年前の0%からは 進歩でしょう
03:33
So that meant, at that zero percent,
57
213897
1931
つまり 0%であったときは
03:35
every single person who received abuse had to actually report it,
58
215852
3650
誹謗中傷を受けた人が 皆 報告する必要があり
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
当事者にとっても 私たちにとっても大きな負担で
03:43
and just ultimately unfair.
60
223129
2018
非常に不公平だったのです
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
もうひとつの取り組みは 企業として
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
あらゆるコミュニティが 参画できるよう努めることです
03:53
We can't build a business that is successful
63
233689
2159
ビジネスを成功に導くには
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
こうした問題を 日々実感している人々の
03:59
that actually feel these issues every single day.
65
239196
3732
多様な視点を 内部に持たねばなりません
04:02
And that's not just with the team that's doing the work,
66
242952
3738
作業をしているチームだけではなく
04:06
it's also within our leadership as well.
67
246714
2096
上層部についても そうです
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
人々の経験に対して 共感を高め続ける必要があるし
04:14
and give them better tools to act on it
69
254615
3316
行動を起こすのに役立つツールを 提供する必要があります
04:17
and also give our customers a much better and easier approach
70
257955
4252
ユーザーが目にしているものに もっとうまく容易に対処できる方法を
04:22
to handle some of the things that they're seeing.
71
262231
2382
提供する必要もあります
04:24
So a lot of what we're doing is around technology,
72
264637
3266
ですから 技術面での取り組みが 多いですが
04:27
but we're also looking at the incentives on the service:
73
267927
4308
サービスが人々に与える 動機についても考えています
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
Twitter を開いたときに 何をしたいと思わせるのか?
04:37
And in the past,
75
277466
1294
過去には
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
怒りや 群衆行動 集団的嫌がらせも
04:46
it's incented a lot of group harassment.
77
286238
2459
多く誘発していました
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
大きな変革をするには
サービスが何をしているのか本質的なことを 深く理解する必要があります
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
先ほど言った通り 技術面で 小さな変更は多くできますが
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
最終的には ネットワークそのものの 力学を深く理解する必要があり
05:03
and that's what we're doing.
82
303840
1368
それが今取り組んでいることです
05:05
CA: But what's your sense --
83
305232
2060
(クリス)ですが 実感としては―
05:07
what is the kind of thing that you might be able to change
84
307316
3963
実際に人々の行動を 根本的に変えるために
05:11
that would actually fundamentally shift behavior?
85
311303
2749
どんなことができると 思いますか?
05:15
JD: Well, one of the things --
86
315386
1480
(ジャック)始めた当初は
05:16
we started the service with this concept of following an account,
87
316890
5340
このサービスの基本に 「アカウントのフォロー」がありました
05:22
as an example,
88
322254
1725
これは ひとつの例ですが
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
でもそれは 人々がTwitterを使う 理由ではないと思うんです
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Twitter は関心に基づいた ネットワークとして優れています
05:33
People come with a particular interest.
91
333257
3453
特定の関心を持って 利用されているんです
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
今は各自の関心に関係のあるアカウントを 探してフォローして回るのに
05:40
around those interests.
93
340245
1405
手間がかかります
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
そうではなく 関心をフォローしたり
05:45
follow a hashtag, follow a trend,
95
345638
2103
ハッシュタグやトレンドや コミュニティを
05:47
follow a community,
96
347765
1754
フォローするようにするのです
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
そうすれば特定の話題や関心に 関係するアカウントや
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
トピックや「モーメント」や ハッシュタグなどを
05:57
that are associated with that particular topic and interest,
99
357551
3992
すべて表示することが できるようになり
06:01
which really opens up the perspective that you see.
100
361567
4600
目に入ってくる視野が 大きく広がります
06:06
But that is a huge fundamental shift
101
366191
2157
とはいえ アカウント中心から
06:08
to bias the entire network away from just an account bias
102
368372
3792
トピックや関心を中心にするよう ネットワーク全体を移行するのは
06:12
towards a topics and interest bias.
103
372188
2587
大々的で根本的な変更です
06:15
CA: Because isn't it the case
104
375283
3148
(クリス)それほどまでに
06:19
that one reason why you have so much content on there
105
379375
3541
コンテンツが 豊富である理由のひとつは
06:22
is a result of putting millions of people around the world
106
382940
3591
世界中の何百万人もの人々に
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
フォロワーや注目の争奪戦を させたからではありませんか?
06:29
for followers, for attention?
108
389721
2090
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Twitter で情報を得るだけの人には その変更は
06:35
that's not an issue,
110
395976
1155
問題ないでしょうが
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
コンテンツを生み出す人々は 皆 こう考えていますよね
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
「いいねや フォロワーや リツイートをもっと増やしたい!」と
06:43
And so they're constantly experimenting,
113
403789
2148
彼らは それを実現しようと
06:45
trying to find the path to do that.
114
405961
1961
試行錯誤しています
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
そして1番効果的だと 分かったのは
06:52
is to be some form of provocative,
116
412096
3406
少し挑発的になったり
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
不快なことを言い立てたりすることです
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
声高な侮辱は Twitter で 注目されます
07:02
where you rapidly pile up --
119
422070
2603
すごい速さで反応が来ますから
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
炎上を自ら招く手法が できてしまうわけです
07:09
How do you defuse that?
121
429329
2351
それには どう対処しますか?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
(ジャック)ええ その通りで
07:15
but that goes back to the incentives.
123
435595
1886
それは動機の話に戻ります
07:17
Like, one of the choices we made in the early days was
124
437505
2632
初期に下した選択のひとつに
07:20
we had this number that showed how many people follow you.
125
440161
4701
フォロワーの数を表示する というものがあります
07:24
We decided that number should be big and bold,
126
444886
2959
その数字を大きい太字で 表示することにしました
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
大きく太字で表示されているものは 重要なわけで
07:31
and those are the things that you want to drive.
128
451633
2278
もっと上を目指そうとします
07:33
Was that the right decision at the time?
129
453935
1907
当時として正しい判断だったか?
07:35
Probably not.
130
455866
1153
違うかもしれません
07:37
If I had to start the service again,
131
457043
1805
サービスを最初から 作り直すなら
07:38
I would not emphasize the follower count as much.
132
458872
2398
フォロワー数は そこまで強調しないと思います
07:41
I would not emphasize the "like" count as much.
133
461294
2295
「いいね」の数も強調しません
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
「いいね」をする機能を そもそも作りませんね
07:46
because it doesn't actually push
135
466757
3267
現在 最も重要だと考えていることを
07:50
what we believe now to be the most important thing,
136
470048
3179
後押しはしてくれませんから
07:53
which is healthy contribution back to the network
137
473251
3039
ネットワークに健全な貢献をしたり
07:56
and conversation to the network,
138
476314
2652
ネットワークに対話をもたらしたり
07:58
participation within conversation,
139
478990
2072
対話への参加を促したり
08:01
learning something from the conversation.
140
481086
2493
対話から何かを学ぶことには つながりません
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
こうしたことを 13年前には 考えていませんでしたが
08:06
and we believe are extremely important right now.
142
486451
2439
今は非常に重要だと思っています
08:08
So we have to look at how we display the follower count,
143
488914
3023
ですから フォロワー数を どう表示するか
08:11
how we display retweet count,
144
491961
2365
リツイート数や「いいね」を
08:14
how we display "likes,"
145
494350
1401
どう表示するかを考え
08:15
and just ask the deep question:
146
495775
2254
深く問いかけねばなりません
08:18
Is this really the number that we want people to drive up?
147
498053
3048
本当にこの数字を 追求させたいのか?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
Twitter を開いたときに
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
「この数字を増やそう」と 思わせたいのか?
08:26
And I don't believe that's the case right now.
150
506234
2144
今は そうではないと思います
08:28
(Applause)
151
508402
2103
(拍手)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
(ウィットニー)ここで客席からのツイートも
08:32
that are coming in from the audience as well.
153
512905
2169
少し見てみましょうか
08:35
CA: Let's see what you guys are asking.
154
515868
2436
(クリス)皆さんの質問を見ましょう
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
これは Twitter の 素晴らしい点のひとつですね
08:41
is how you can use it for crowd wisdom,
156
521646
2294
みんなの知恵を借りて
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
想像しないほど多くの 知識や問いや視点を活用でき
08:48
than you can imagine,
158
528828
1238
08:50
and sometimes, many of them are really healthy.
159
530090
3689
その多くはとても 健全なものです
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
(ウィットニー)今 流れていきましたが
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
「2020年の米大統領選挙で 外国の介入にどう対処するのか?」
09:00
I think that's something that's an issue we're seeing
162
540265
2571
インターネットで一般的に
09:02
on the internet in general,
163
542860
1901
多く見られる問題ですね
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
自動化された悪意ある活動が 多く見られます
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
たとえば Twitter については
Zignal Lab による 調査結果が手元にありますが
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
09:16
and maybe we can even see that to give us an example
167
556655
2656
今 お話ししていることの
09:19
of what exactly I'm talking about,
168
559335
1927
良い例として見てみましょう
09:21
where you have these bots, if you will,
169
561286
3204
「ボット」というか
09:24
or coordinated automated malicious account activity,
170
564514
4550
組織的な悪意ある 自動化されたアカウントが
09:29
that is being used to influence things like elections.
171
569088
2764
選挙などを左右するのに 使われたりしています
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
Zignal Lab 提供の こちらの例は
09:35
using the data that they have from Twitter,
173
575743
2198
Twitter から抽出した データを使っていますが
09:37
you actually see that in this case,
174
577965
2441
ここから実際に分かるのは—
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
ひとつひとつの点がアカウントで 白が人間のユーザーで
09:44
The pinker it is,
176
584824
1359
赤みが強いものほど
09:46
the more automated the activity is.
177
586207
1740
自動化傾向の強いアカウントです
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
ボットと関わっている人間のユーザーが いくらか見られます
09:53
In this case, it's related to the election in Israel
179
593965
4419
このケースは イスラエルの選挙に関連したもので
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
ベニー・ガンツに関する 虚偽の情報が広められています
10:01
and as we know, in the end, that was an election
181
601265
2662
ご存じの通り 最終的に選挙結果は
10:03
that Netanyahu won by a slim margin,
182
603951
3724
ネタニヤフが僅差で 勝利しましたが
10:07
and that may have been in some case influenced by this.
183
607699
2842
これに影響された部分も あるかもしれません
10:10
And when you think about that happening on Twitter,
184
610565
2615
Twitter 上の こうした活動について
10:13
what are the things that you're doing, specifically,
185
613204
2456
具体的には 何をされていますか?
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
虚偽の情報がいたずらに広まり 人々に影響して
10:19
influencing people in ways that could affect democracy?
187
619410
4181
民主主義を左右しないように 何をしていますか?
10:23
JD: Just to back up a bit,
188
623615
1771
(ジャック)少し補足しますが
10:25
we asked ourselves a question:
189
625410
2975
私たちも自問しました
10:28
Can we actually measure the health of a conversation,
190
628409
3816
実際に対話の健全性を 測ることはできるのか?
10:32
and what does that mean?
191
632249
1288
それがどういうことなのか?
10:33
And in the same way that you have indicators
192
633561
3382
自分が健康かを測る上で
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
体温や顔色などの尺度を
10:40
such as temperature, the flushness of your face,
194
640458
4658
人間として持っているのと 同じように
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
対話の健全性についても 尺度を見いだせると思います
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
MIT の Cortico という ラボと共同して
10:54
to propose four starter indicators
197
654479
6091
手始めに4つの指標案を出しました
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
最終的には システム上で 測れるものだと思います
11:05
And the first one is what we're calling shared attention.
199
665249
5604
1つめは「関心の共有度」です
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
ある対話において どれほどが同じ話題に
11:14
on the same topic versus disparate.
201
674482
2630
収斂しているかどうかを測ります
11:17
The second one is called shared reality,
202
677739
2783
2つめは「事実の共有度」です
11:21
and this is what percentage of the conversation
203
681217
2259
これは ある対話において 同じ事実を
11:23
shares the same facts --
204
683500
2005
共有している割合を測ります
11:25
not whether those facts are truthful or not,
205
685529
3113
その事実が真実かどうかではなく
11:28
but are we sharing the same facts as we converse?
206
688666
3009
対話において 同じ事実が 共有されているかどうかです
11:32
The third is receptivity:
207
692235
2353
3つめは「受容性」です
11:34
How much of the conversation is receptive or civil
208
694612
3959
ある対話のどれほどが 受容的かつ礼儀にかなったものか
11:38
or the inverse, toxic?
209
698595
2944
あるいは逆に不快なものかを測ります
11:42
And then the fourth is variety of perspective.
210
702213
3222
4つめは「視点の多様性」です
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
フィルターバブルや エコーチェンバー現象が起きているか
11:48
or are we actually getting a variety of opinions
212
708628
3057
それとも 対話において 様々な意見が見られるかを測ります
11:51
within the conversation?
213
711709
1635
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
この4つに共通するのは それが大きいほどに
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
対話がより健全なものになる ということです
12:00
So our first step is to see if we can measure these online,
216
720824
4869
第一歩はこれらをその場で 測れるかを試すことですが
12:05
which we believe we can.
217
725717
1308
できると思います
12:07
We have the most momentum around receptivity.
218
727049
3167
「受容性」について 特に力を入れています
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
不快度のモデルを システム上に構築していて
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
不快であるとの理由から Twitter 上での対話から
12:18
from a conversation that you're having on Twitter
221
738729
2313
立ち去る可能性を
12:21
because you feel it's toxic,
222
741066
1633
実際に測定できます
12:22
with some pretty high degree.
223
742723
2512
かなりの精度です
12:26
We're working to measure the rest,
224
746369
2199
その他についても取り組んでおり
12:28
and the next step is,
225
748592
1964
次の段階は
12:30
as we build up solutions,
226
750580
3359
解決策を講じるとともに
12:33
to watch how these measurements trend over time
227
753963
3491
これらの指標が時の経過とともに どう変化するかを観察し
12:37
and continue to experiment.
228
757478
1873
実験を続けることです
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
目標はこれらをバランスよく 運用することです
12:43
because if you increase one, you might decrease another.
230
763440
3066
どれかを増やすと 他が減少することもあるでしょう
12:46
If you increase variety of perspective,
231
766530
2147
「視点の多様性」を上げることで
12:48
you might actually decrease shared reality.
232
768701
3091
「事実の共有度」が下がる かもしれません
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
(クリス)多く寄せられた質問に 言及しますね
12:56
JD: Constant questioning.
234
776829
1271
(ジャック)質問攻めですね
12:58
CA: A lot of people are puzzled why,
235
778996
3620
(クリス)多くの人が 疑問に思っているのは
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
Twitter からネオナチを駆逐するのが どれだけ難しいのかということです
13:08
JD: (Laughs)
237
788309
1322
(ジャック)(笑)
13:09
So we have policies around violent extremist groups,
238
789655
6995
暴力的な過激派集団に対する 方針があります
13:16
and the majority of our work and our terms of service
239
796674
4426
私たちの仕事や サービス規約のほとんどは
13:21
works on conduct, not content.
240
801124
3729
コンテンツではなく 行動を対象にしています
13:24
So we're actually looking for conduct.
241
804877
2551
ですから 行動に着目しています
13:27
Conduct being using the service
242
807452
3014
つまり サービスを通じて
13:30
to repeatedly or episodically harass someone,
243
810490
3867
繰り返し あるいは散発的に 嫌がらせ行為をしたり
13:34
using hateful imagery
244
814381
2493
KKK やアメリカ・ナチ党に 関連するような―
13:36
that might be associated with the KKK
245
816898
2106
不愉快な画像を使ったり といったことです
13:39
or the American Nazi Party.
246
819028
3281
13:42
Those are all things that we act on immediately.
247
822333
4156
そういったものには 即 対処します
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
現状では この規約は 緩やかに運用されていて
13:52
and we just cannot take any one mention of that word
249
832478
5313
誰かを責めるのに そういう言葉を
13:57
accusing someone else
250
837815
2117
ひと言使ったからといって
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
プラットフォームから 除外することはしません
14:03
So a lot of our models are based around, number one:
252
843735
2627
ですから 私たちのモデルが 基づいているのは まず
14:06
Is this account associated with a violent extremist group?
253
846386
3140
暴力的な過激派集団に 関連するアカウントかどうか?
14:09
And if so, we can take action.
254
849550
1983
そうであれば 対処します
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
KKK やアメリカ・ナチ党などについては すでにそうしています
14:15
And number two: Are they using imagery or conduct
256
855433
4183
2点目としては そういった団体に 関連付けられるような―
14:19
that would associate them as such as well?
257
859640
2372
画像の使用や行動を しているかどうかです
14:22
CA: How many people do you have working on content moderation
258
862416
2932
(クリス)コンテンツ・モデレーションには 何人くらい関わっていますか?
14:25
to look at this?
259
865372
1250
14:26
JD: It varies.
260
866646
1496
(ジャック)色々ですね
14:28
We want to be flexible on this,
261
868166
1595
フレキシブルにしたいんです
14:29
because we want to make sure that we're, number one,
262
869785
2646
まず 人員をたくさん 雇い入れるのではなく
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
アルゴリズムを構築したいと 思っているからです
14:36
because we need to make sure that this is scalable,
264
876903
2824
大規模に行えなければ いけませんし
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
人海戦術では 追いつきません
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
ですから 誹謗中傷を自動検出して 人がそれを確認できるよう
14:49
that humans can then review.
267
889882
1391
努力してきました
14:51
We want to have a situation
268
891297
2861
望ましい状況は
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
アルゴリズムに常時 ツイートを精査させて
14:57
and bringing the most interesting ones to the top
270
897947
2342
最も注意を引くものを トップに表示させることで
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
利用規約に基づいて 除去するかどうかを
15:04
based on our terms of service.
272
904239
1524
人が判断できるというものです
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
(ウィットニー)問題の規模に 人手では対応できないとのことですが
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
アカウントの監視は 現在何人がしているんですか?
15:12
and how do you figure out what's enough?
275
912135
2546
それが十分であるかを 決める方法は何ですか?
15:14
JD: They're completely flexible.
276
914705
2272
(ジャック)まったくフレキシブルです
15:17
Sometimes we associate folks with spam.
277
917001
2941
スパムの対処を してもらうこともありますし
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
誹謗中傷や嫌がらせ行為に 対処してもらうこともあります
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
人員について柔軟性を保つことで
15:26
so that we can direct them at what is most needed.
280
926921
2350
最も必要なことに 従事してもらえます
選挙であることもあります
15:29
Sometimes, the elections.
281
929295
1204
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
メキシコで一連の選挙があり 今度インドでもあります
15:35
obviously, the election last year, the midterm election,
283
935474
4447
もちろん 昨年の 米国中間選挙もありましたね
15:39
so we just want to be flexible with our resources.
284
939945
2472
だから 人員については 柔軟にしたいと思っています
15:42
So when people --
285
942441
2129
誰かが―
15:44
just as an example, if you go to our current terms of service
286
944594
6389
たとえばですが 現在の利用規約にアクセスし
15:51
and you bring the page up,
287
951007
1641
ページを開いて
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
今受けたばかりの 嫌がらせ行為について
15:56
and whether it was against our terms of service to report it,
289
956378
3634
利用規約に反していると 報告できるかと調べるとします
16:00
the first thing you see when you open that page
290
960036
2559
ページを開いて まず目に入るのは
16:02
is around intellectual property protection.
291
962619
3088
知的財産権についてです
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
下にスクロールしていくと 誹謗中傷や嫌がらせ行為など
16:11
and everything else that you might be experiencing.
293
971851
2382
他の事柄について書かれています
16:14
So I don't know how that happened over the company's history,
294
974257
3195
うちの企業史で いつそうなったかは 定かではないですが
16:17
but we put that above the thing that people want
295
977476
4797
人々が最も情報を求めていて 行動を望んでいるものよりも上に
16:24
the most information on and to actually act on.
296
984146
3222
そういうのがきています
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
その順序自体が 何を重んじているかを 世界に示してしまっています
16:32
So we're changing all that.
298
992657
2881
ですから 変えようと思っています
16:35
We're ordering it the right way,
299
995562
1563
順序をあるべきものに変えて
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
ルールも簡潔にして 普通に読んで分かるものにします
16:40
so that people can actually understand themselves
301
1000624
4067
規約違反かどうかを 利用者が 実際に理解できるようにしたいのです
16:44
when something is against our terms and when something is not.
302
1004715
3448
16:48
And then we're making --
303
1008187
2161
それから取り組んでいるのは―
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
被害者の負担を取り除くよう 注力するということです
16:55
So that means push more towards technology,
305
1015596
3734
もっとテクノロジーの 裁量を増やして
16:59
rather than humans doing the work --
306
1019354
1873
人間の作業を減らします
17:01
that means the humans receiving the abuse
307
1021251
2413
誹謗中傷を受けた人の負担も
17:03
and also the humans having to review that work.
308
1023688
3026
検証する人の負担も 減らすということです
17:06
So we want to make sure
309
1026738
1673
努力しているのは
17:08
that we're not just encouraging more work
310
1028435
2841
非常にネガティブなものに対する
17:11
around something that's super, super negative,
311
1031300
2629
対処を進めるだけでなく
17:13
and we want to have a good balance between the technology
312
1033953
2674
テクノロジーと 人間が創造性を発揮できる場の
17:16
and where humans can actually be creative,
313
1036651
2852
バランスをうまく取るということです
17:19
which is the judgment of the rules,
314
1039527
3090
ただ違反を見つけて報告する 機械的な部分だけでなく
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
規則に基づいて 判断するという部分でも
17:25
So that's how we think about it.
316
1045932
1530
そう考えています
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
(クリス)今の発言を 掘り下げたいのですが
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
システムの基本デザインを 見直すための方法を
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
探っているのは とても良いことだと思います
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
反射的な行動を やめさせたり あるいは―
17:40
to use Tristan Harris-type language --
321
1060930
2705
トリスタン・ハリス風に言えば
17:43
engage people's more reflective thinking.
322
1063659
4288
人々の内省的な思考に 訴えるということでしょうか
17:47
How far advanced is that?
323
1067971
1854
それはどこまで進んでいますか?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
「いいね」に代わるものは 何になるのでしょう?
17:55
JD: Well, first and foremost,
325
1075518
3575
(ジャック)そうですね まず何よりも
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
このサービスについての 個人的な目標であり
私が信じていることは 公共の場での対話の重要性です
18:04
that public conversation is critical.
327
1084894
2702
18:07
There are existential problems facing the world
328
1087620
2647
世界が直面している 人間の存在に関わる問題―
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
特定の国だけでなく 世界全体が直面している問題には
18:14
that global public conversation benefits.
330
1094478
2649
公共の場での議論に 利するものがあります
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
Twitter 独特の力強さのひとつは
18:19
that it is completely open,
332
1099547
1814
完全にオープンで
18:21
it is completely public,
333
1101385
1596
完全に公に開かれていて
18:23
it is completely fluid,
334
1103005
1399
完全に流動的なことです
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
誰でも あらゆる対話を目にでき 参加することができます
18:28
So there are conversations like climate change.
336
1108490
2206
気候変動に関する話題もあるでしょう
18:30
There are conversations like the displacement in the work
337
1110720
2682
人工知能によって 労働力が代替されることに関する
18:33
through artificial intelligence.
338
1113426
2000
話題もあるでしょう
18:35
There are conversations like economic disparity.
339
1115450
3006
経済格差に関する話題もあります
18:38
No matter what any one nation-state does,
340
1118480
2765
ひとつの国家が何をしようが
18:41
they will not be able to solve the problem alone.
341
1121269
2421
単独では解決し得ない問題です
18:43
It takes coordination around the world,
342
1123714
2643
世界全体での協力が必要ですし
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
Twitter はそれに 役立てると思います
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
2つめは 現状では Twitter にアクセスしても
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
何かを学んだとは 必ずしも 感じないということです
18:58
Some people do.
346
1138888
1276
学んでいる人もいます
19:00
Some people have a very, very rich network,
347
1140188
3107
中には 非常に 豊かなネットワークを持っていて
19:03
a very rich community that they learn from every single day.
348
1143319
3117
日々学びを得ている人もいると思います
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
しかし その段階に到達するには 手間も時間もかかります
19:10
So we want to get people to those topics and those interests
350
1150175
3448
ですから 人々がそういう トピックや関心事項にもっと早く
19:13
much, much faster
351
1153647
1579
到達できるようにしたいのです
19:15
and make sure that they're finding something that,
352
1155250
2566
それから 人々が必ず何かを 見付けられるようにしたい
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
どれだけの時間を Twitter 上で過ごすにせよ―
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
利用時間を 最大化したいのではなく
19:23
I want to maximize what they actually take away from it
355
1163494
2910
そこから得られるもの— そこから学べるものを
19:26
and what they learn from it, and --
356
1166428
2030
最大化したいんです
19:29
CA: Well, do you, though?
357
1169598
1328
(クリス)本当ですか?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
多くの人が聞きたい 核心的な問いはそこなんです
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
「ジャック いろいろ制約が あるのは分かる
19:37
by the fact that you're a public company,
360
1177880
2007
公開企業であるわけだし
19:39
you've got investors pressing on you,
361
1179911
1774
出資者のプレッシャーもあるだろう
19:41
the number one way you make your money is from advertising --
362
1181709
3559
最大の収入源は広告であって
19:45
that depends on user engagement.
363
1185292
2772
ユーザーの利用度合いに 依存してもいる
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
本当に 必要とあれば ユーザーの利用時間を失ってでも
19:52
to go for a more reflective conversation?
365
1192812
3729
内省的な対話を促そうと 考えているのか?」と
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
(ジャック)関連性を高めると 利用時間が減るというなら
19:59
and that's perfectly fine,
367
1199700
1937
それはそれで構いません
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
Twitter を利用したときに すぐに何かを学べて
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
追求できるものが 見つかるようにしたいと思いますし
20:09
We can still serve an ad against that.
370
1209328
3420
それに広告をつけることはできます
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
広告を見てもらうために 長くいてもらう必要はありません
20:15
The second thing we're looking at --
372
1215717
1733
2つめの取り組みは―
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
(クリス)1日あたりの 利用についてですが
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
それがそのまま 人々が価値を見いだしている内容の
20:23
that people value every day.
375
1223465
1738
量であるとは限りません
20:25
It may well mean
376
1225227
1161
おそらくは
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
火に集まる蛾のように 引き寄せられただけ ということもあるでしょう
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
中毒的になって 腹が立つ内容を目にして
20:32
so we go in and add fuel to the fire,
379
1232788
3178
火にさらに油を注ぐことをします
20:35
and the daily active usage goes up,
380
1235990
1927
すると 1日あたりの利用が増えて
20:37
and there's more ad revenue there,
381
1237941
1715
広告料はもっと入ってきますが
20:39
but we all get angrier with each other.
382
1239680
2752
皆 お互いに対して もっと腹を立てるばかりです
20:42
How do you define ...
383
1242456
2509
どう定義するんですか?
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
「1日あたりの利用」は最適化するには 非常に危険なものだと思いますよ
20:49
(Applause)
385
1249139
5057
(拍手)
20:54
JD: Taken alone, it is,
386
1254220
1268
(ジャック)単独では そうです
20:55
but you didn't let me finish the other metric,
387
1255512
2346
もうひとつの指標について まだお話ししていません
20:57
which is, we're watching for conversations
388
1257882
3727
対話や関連する一連のツイートにも 注目しています
21:01
and conversation chains.
389
1261633
2129
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
ネットワークに健全な貢献が 自発的にされるよう促したいんです
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
それは 先程お話しした 4つの指標で定義されるような
21:13
that is healthy,
392
1273091
1197
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
健全な対話に参加する ということだと考えています
21:19
So you can't just optimize around one metric.
394
1279373
2657
1つの指標についてだけ 最適化はできません
21:22
You have to balance and look constantly
395
1282054
2752
バランスを取って 常に見守る必要があります
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
ネットワークへの健全な貢献や 健全な体験を生み出すのは何であるかを
21:28
and a healthy experience for people.
397
1288937
2341
21:31
Ultimately, we want to get to a metric
398
1291302
1866
最終的には 人々が
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
「Twitter から何かを学んで 価値のある経験をした」と
21:36
and I'm walking away with something valuable."
400
1296973
2167
思えるための指標を 目指しています
21:39
That is our goal ultimately over time,
401
1299164
2043
それが最終的な目標ですが
21:41
but that's going to take some time.
402
1301231
1809
時間はかかるでしょう
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
(クリス)多くの人は あなたを 謎めいていると思っていると思います
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
ちょっとひどいかもしれませんが 先日夜にふと目覚めて
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
あなたを取り巻く状況を こんな風にイメージしたんです
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
私たちはあなたと一緒に 客船「ツイッタニック」号に乗っていて―
22:03
(Laughter)
407
1323620
1281
(笑)
22:04
and there are people on board in steerage
408
1324925
4357
三等船室の乗客たちが
22:09
who are expressing discomfort,
409
1329306
2203
不安を表明していると
22:11
and you, unlike many other captains,
410
1331533
2543
あなたは 他の船長とは違って
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
「教えてくれ 話をしよう 君たちの話を聞きたい」と言う
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
人々が「前方にある氷山が 気がかりなんだ」と告げると
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
あなたは「非常に良い指摘だ
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
この船は 正直に言って うまく操舵できるように
22:25
for steering as well as it might."
415
1345918
1669
作られてはいない」と言う
22:27
And we say, "Please do something."
416
1347611
1658
「どうにかしてくれ」と言うと
22:29
And you go to the bridge,
417
1349293
1411
あなたは船橋に行くが
22:30
and we're waiting,
418
1350728
2295
みんな やきもきして待っているのに
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
あなたは やたらに落ちついた様子で
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
私たちは外から「頼むから 舵を切ってくれ!」と叫んでいる—
22:41
You know?
421
1361526
1151
わかりますか?
22:42
(Laughter)
422
1362701
1335
(笑)
22:44
(Applause)
423
1364060
2381
(拍手)
22:46
I mean --
424
1366465
1166
つまり―
22:47
(Applause)
425
1367655
1734
(拍手)
22:49
It's democracy at stake.
426
1369413
4594
危険にさらされているのは 民主主義であり
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
私たちの文化であり 世界なんです
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
Twitter は素晴らしいもので 役立ってもいます
23:01
It's not as big as some of the other platforms,
429
1381606
2233
他のプラットフォームに比べれば 小さくても
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
影響力のある人々が 方向を示すのに使っています
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
これ以上に世界で重要な役割は ないと思います―
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
あなたは 人々の言葉に 耳を傾けていて素晴らしいけれど―
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
実際に緊急性をもって 物事を実行するという重要な役割を
23:21
will you do that?
434
1401779
2201
あなたは実行するんですか?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
(ジャック)ええ 大きな行動を 起こしています
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Twitter の歴史には いくつか転換点がありました
23:31
One, when I came back to the company,
437
1411838
2083
私が会社に復帰したとき
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
将来の見通しは かなり悲惨なものでした
23:41
and not just from how people were using the platform,
439
1421757
4634
プラットフォームの 利用のされ方だけでなく
23:46
but from a corporate narrative as well.
440
1426415
2047
企業のあり方としてもです
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
ですから 企業としての 基礎を修正して
23:51
turn the company around,
442
1431714
1969
方向転換をしました
23:53
go through two crazy layoffs,
443
1433707
3111
2度 大規模なリストラもしました
23:56
because we just got too big for what we were doing,
444
1436842
3793
企業として大きくなりすぎていたんです
24:00
and we focused all of our energy
445
1440659
2060
それから 全エネルギーを
24:02
on this concept of serving the public conversation.
446
1442743
3508
公共の場での対話に役立つという 理念に向けました
24:06
And that took some work.
447
1446275
1451
努力も必要でした
24:07
And as we dived into that,
448
1447750
2608
実際に深く取り組んでみて
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
根本的な部分の問題にも 気づきました
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
今 話に出たことに対処するため 表層的なことは色々できても
24:18
but we need the changes to last,
451
1458800
1790
変化は持続するもので なければなりません
24:20
and that means going really, really deep
452
1460614
2459
だからこそ 深く掘り下げて
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
13年前に始めたことに しっかり目を向けて
24:27
and really questioning
454
1467471
2261
問いかけなければなりません
24:29
how the system works and how the framework works
455
1469756
2566
システムや枠組みが どう機能しているのか
24:32
and what is needed for the world today,
456
1472346
3833
また 物事も利用の仕方も どんどん変わっていく中で
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
現在の世界は 何を必要としているのか
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
できるだけ迅速に対応していますが 迅速さだけでは成し遂げられません
24:46
It's focus, it's prioritization,
459
1486819
2611
重点の置き方や 優先順位も重要ですし
24:49
it's understanding the fundamentals of the network
460
1489454
2946
このネットワークの本質を理解し
24:52
and building a framework that scales
461
1492424
2842
規模の大きさや変化に 柔軟に対応できる枠組みを
24:55
and that is resilient to change,
462
1495290
2351
構築しなければなりません
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
現状についてオープン かつ透明性を保って
25:03
so that we can continue to earn trust.
464
1503118
2179
信頼を得ることも必要です
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
実現にこぎつけた枠組みについては 誇りに思っていますし
25:09
I'm proud of our direction.
466
1509496
2888
方向性についても そうです
25:12
We obviously can move faster,
467
1512915
2718
もっと速く前進もできるでしょうが
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
過去のばかげた過ちの数々を 止めねばなりませんでしたので
25:21
CA: All right.
469
1521067
1164
(クリス)なるほど
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
この場にいる多く人が 機会さえあれば
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
変革へのアジェンダについて 手助けしたいと思っているでしょう
25:30
and I don't know if Whitney --
472
1530359
1542
ウィットニーもそうでしょう
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
ジャック 登壇してオープンに 語ってくれてありがとう
25:34
It took courage.
474
1534710
1527
勇気が要ったと思います
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
非常に良いことを言ってくれました うまくいくことを願っています
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
(ジャック)ありがとうございました
25:41
(Applause)
477
1541788
3322
(拍手)
25:45
Thank you.
478
1545134
1159
ありがとう
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7