Del Harvey: The strangeness of scale at Twitter

105,103 views ・ 2014-03-27

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Thipnapa Huansuriya Reviewer: Sritala Dhanasarnsombut
00:12
My job at Twitter
0
12984
1291
งานของฉันที่ ทวิตเตอร์
00:14
is to ensure user trust,
1
14275
1978
คือการทำให้ผู้ใช้บริการมั่นใจในบริการ
00:16
protect user rights and keep users safe,
2
16253
2837
ปกป้องสิทธิ์และรักษาความปลอดภัยของผู้ใช้
00:19
both from each other
3
19090
1260
จากผู้ใช้ทวิตเตอร์ด้วยกันเอง
00:20
and, at times, from themselves.
4
20350
3899
และบางครั้ง จากตัวผู้ใช้บริการเอง
00:24
Let's talk about what scale looks like at Twitter.
5
24249
4275
ลองมาดูกันว่าตัวเลขการใช้ทวิตเตอร์มันเยอะขนาดไหน
00:28
Back in January 2009,
6
28524
2870
ย้อนกลับไปเดือนมกราคม ปี 2009
00:31
we saw more than two million new tweets each day
7
31394
3331
เราเห็นมากกว่า 2 ล้านทวีตต่อวัน
00:34
on the platform.
8
34725
1764
บนแพลตฟอร์ม
00:36
January 2014, more than 500 million.
9
36489
5908
มกราคม ปี 2014 มากกว่า 500 ล้าน
00:42
We were seeing two million tweets
10
42397
2492
นั่นคือมากกว่า 2 ล้านทวีต
00:44
in less than six minutes.
11
44889
2176
ในเวลาน้อยกว่า 6 นาที
00:47
That's a 24,900-percent increase.
12
47065
6984
เพิ่มขึ้น 24,900 เปอร์เซ็นต์
00:54
Now, the vast majority of activity on Twitter
13
54049
3253
ทีนี้ กิจกรรมส่วนใหญ่บนทวิตเตอร์
00:57
puts no one in harm's way.
14
57302
1503
ไม่มีอันตรายกับใคร
00:58
There's no risk involved.
15
58805
1935
ไม่มีความเสี่ยงใดๆ
01:00
My job is to root out and prevent activity that might.
16
60740
5753
หน้าที่ของฉันคือการสืบค้น และป้องกันกิจกรรมเสี่ยงต่างๆ
01:06
Sounds straightforward, right?
17
66493
1973
ฟังดูชัดเจนใช่ไหมคะ?
01:08
You might even think it'd be easy,
18
68466
1152
บางทีคุณอาจจะคิดว่ามันง่าย
01:09
given that I just said the vast majority
19
69618
2170
เพราะฉันเพิ่งพูดไปว่ากิจกรรมบนทวิตเตอร์
01:11
of activity on Twitter puts no one in harm's way.
20
71788
3810
ส่วนใหญ่ไม่ได้สร้างภัยอันตรายให้ใคร
01:15
Why spend so much time
21
75598
2169
ทำไมถึงต้องใช้เวลามากมาย
01:17
searching for potential calamities
22
77767
2743
ค้นหาอันตรายที่อาจเกิดขึ้นได้
01:20
in innocuous activities?
23
80510
2900
ในกิจกรรมที่ดูสุดจะปลอดภัย
01:23
Given the scale that Twitter is at,
24
83410
2940
ดูจากขนาดของทวิตเตอร์ในตอนนี้
01:26
a one-in-a-million chance happens
25
86350
2357
สิ่งที่มีโอกาสเกิดขึ้นแค่หนึ่งในล้าน
01:28
500 times a day.
26
88707
4876
คือสิ่งที่เกิดขึ้นวันละ 500 ครั้ง
01:33
It's the same for other companies
27
93583
1445
บริษัทอื่นก็เป็นแบบนี้เหมือนกัน
01:35
dealing at this sort of scale.
28
95028
1471
ถ้าต้องจัดการกับอะไรที่มีขนาดแบบนี้
01:36
For us, edge cases,
29
96499
1708
สำหรับเรา กรณีสุดโต่ง
01:38
those rare situations that are unlikely to occur,
30
98207
3625
เหตุการณ์หายากที่ไม่น่าจะเกิดขึ้นเหล่านั้น
01:41
are more like norms.
31
101832
2622
มันคือเรื่องปกติ
01:44
Say 99.999 percent of tweets
32
104454
3942
สมมติว่า 99.999 เปอร์เซ็นต์ของทวีต
01:48
pose no risk to anyone.
33
108396
1888
ไม่มีอันตรายกับใคร
01:50
There's no threat involved.
34
110284
1066
ไม่มีภัยคุกคามใดๆ เกี่ยวข้อง
01:51
Maybe people are documenting travel landmarks
35
111350
2954
บางทีก็แค่คนถ่ายรูปสถานที่ท่องเที่ยวที่น่าสนใจ
01:54
like Australia's Heart Reef,
36
114304
1963
อย่าง ฮาร์ท ลีฟ ที่ ออสเตรเลีย
01:56
or tweeting about a concert they're attending,
37
116267
2921
หรือทวีตเกี่ยวกับคอนเสิร์ตที่เขากำลังเข้าร่วม
01:59
or sharing pictures of cute baby animals.
38
119188
4747
หรือแบ่งปันรูปทารกสัตว์แสนน่ารัก
02:03
After you take out that 99.999 percent,
39
123935
4509
หลังจากที่คุณตัด 99.999 เปอร์เซ็นต์ ออก
02:08
that tiny percentage of tweets remaining
40
128444
3529
จำนวนทวีตที่เหลือไม่กี่เปอร์เซ็นต์
02:11
works out to roughly
41
131973
2389
คิดออกมาแล้วก็ประมาณ
02:14
150,000 per month.
42
134362
3475
150,000 ทวีตต่อเดือน
02:17
The sheer scale of what we're dealing with
43
137837
2456
แต่ด้วยขนาดของสิ่งที่เราต้องต่อกรด้วย
02:20
makes for a challenge.
44
140293
2312
ทำให้มันท้าทาย
02:22
You know what else makes my role
45
142605
1178
คุณรู้ไหมว่ามีอะไรอีกที่ทำให้
02:23
particularly challenging?
46
143783
3107
หน้าที่ของดิฉันท้าทายมาก
02:26
People do weird things.
47
146890
5123
คนเราชอบทำอะไรแปลกๆ
02:32
(Laughter)
48
152013
1829
(เสียงหัวเราะ)
02:33
And I have to figure out what they're doing,
49
153842
2391
และฉันจะต้องคิดให้ออกว่าพวกเขากำลังทำอะไร
02:36
why, and whether or not there's risk involved,
50
156233
2249
ทำไม และสิ่งที่พวกเขาทำมีอันตรายไหม
02:38
often without much in terms of context
51
158482
2168
บ่อยครั้งที่ไม่มีคำอธิบายหรือพื้นหลัง
02:40
or background.
52
160650
1847
มากนัก
02:42
I'm going to show you some examples
53
162497
2077
ดิฉันจะให้คุณดูตัวอย่าง
02:44
that I've run into during my time at Twitter --
54
164574
2005
ที่ดิฉันได้พบเจอในช่วงเวลาของฉันที่ทวิตเตอร์
02:46
these are all real examples —
55
166579
1620
ตัวอย่างทั้งหมดนี้เป็นเรื่องจริง
02:48
of situations that at first seemed cut and dried,
56
168199
2653
ของสถานการณ์ที่ดูเหมือนจะไม่ซับซ้อน
02:50
but the truth of the matter was something
57
170852
1643
แต่ความจริงมันคือบางอย่าง
02:52
altogether different.
58
172495
1550
ที่แตกต่างโดยสิ้นเชิง
02:54
The details have been changed
59
174045
1977
รายละเอียดได้ถูกเปลี่ยน
02:56
to protect the innocent
60
176022
1257
เพื่อปกป้องผู้บริสุทธิ์
02:57
and sometimes the guilty.
61
177279
3233
และบางครั้งผู้กระทำความผิด
03:00
We'll start off easy.
62
180512
3005
เราจะเริ่มจากง่ายๆ
03:03
["Yo bitch"]
63
183517
1793
["ว่าไง นังตัวแสบ"]
03:05
If you saw a Tweet that only said this,
64
185310
3228
ถ้าคุณเห็นทวีตที่พูดแค่นี้
03:08
you might think to yourself,
65
188538
1694
คุณอาจจะคิดกับตัวเองว่า
03:10
"That looks like abuse."
66
190232
1653
"นั่นเหมือนเป็นการคุกคาม"
03:11
After all, why would you want to receive the message,
67
191885
3107
ไม่ว่ายังไงคงไม่มีใครอยากได้รับข้อความ
03:14
"Yo, bitch."
68
194992
2218
"ว่าไง นังตัวแสบ"
03:17
Now, I try to stay relatively hip
69
197210
4663
ทีนี้ ฉันพยายามทำตัวให้เท่าทันเหตุการณ์
03:21
to the latest trends and memes,
70
201873
2512
ให้ทันกับความเชื่อและค่านิยมล่าสุด
03:24
so I knew that "yo, bitch"
71
204385
2704
เพราะฉะนั้น ฉันรู้ว่า "ว่าไง นังตัวแสบ"
03:27
was also often a common greeting between friends,
72
207089
3154
เป็นคำทักทายทั่วไปในหมู่เพื่อนๆ
03:30
as well as being a popular "Breaking Bad" reference.
73
210243
4262
และเป็นคำที่ใช้กล่าวถึงคนอื่น ในละครทีวียอดนิยมเรื่อง "เบรคกิ้ง แบด"
03:34
I will admit that I did not expect
74
214505
2487
ฉันยอมรับ ว่าฉันไม่ทันได้คาดคิด
03:36
to encounter a fourth use case.
75
216992
2841
ว่าจะเจอกับกรณีที่สี่
03:39
It turns out it is also used on Twitter
76
219833
3104
ปรากฏว่ามันถูกใช้บนทวิตเตอร์
03:42
when people are role-playing as dogs.
77
222937
3062
เมื่อคนบางคนสวมบทบาทเป็นสุนัข
03:45
(Laughter)
78
225999
5279
(เสียงหัวเราะ)
03:51
And in fact, in that case,
79
231278
1666
ความจริงแล้ว ในกรณีนั้น
03:52
it's not only not abusive,
80
232944
1609
ไม่ใช่แค่ว่ามันไม่ใช่การคุกคาม
03:54
it's technically just an accurate greeting.
81
234553
3139
มันกลับเป็นแค่คำทักทายที่ถูกต้องทางเทคนิค (คำนี้มีความหมายอีกอย่างว่า สุนัขตัวเมีย)
03:57
(Laughter)
82
237692
2889
(เสียงหัวเราะ)
04:00
So okay, determining whether or not
83
240581
2071
เอาล่ะ ทีนี้การตีความว่าอะไรเป็นภัยคุกคามหรือไม่
04:02
something is abusive without context,
84
242652
1848
โดยปราศจากบริบท
04:04
definitely hard.
85
244500
1592
เป็นอะไรที่ยากแน่นอน
04:06
Let's look at spam.
86
246092
2717
ลองมาดู สแปม
04:08
Here's an example of an account engaged
87
248809
1960
นี่เป็นตัวอย่างของบัญชีที่เกี่ยวข้อง
04:10
in classic spammer behavior,
88
250769
1668
กับพฤติกรรมคลาสสิคของนักสแปม
04:12
sending the exact same message
89
252437
1559
ส่งข้อความที่เหมือนกันออกไป
04:13
to thousands of people.
90
253996
1804
ให้กับผู้คนนับพัน
04:15
While this is a mockup I put together using my account,
91
255800
2793
นี่เป็นแค่ตัวอย่างที่ฉันรวมจากบัญชีของตัวเอง
04:18
we see accounts doing this all the time.
92
258593
3001
เราสามารถเห็นบัญชีต่างๆ ทำแบบนี้ได้ตลอดเวลา
04:21
Seems pretty straightforward.
93
261594
1979
ดูชัดเจน
04:23
We should just automatically suspend accounts
94
263573
2053
เราควรระงับบัญชีที่กระทำพฤติกรรมนี้
04:25
engaging in this kind of behavior.
95
265626
3307
โดยอัตโนมัติ
04:28
Turns out there's some exceptions to that rule.
96
268933
3210
ปรากฏว่ามันมีข้อยกเว้นเกี่ยวกับกฎนั้น
04:32
Turns out that that message could also be a notification
97
272143
2883
ข้อความนั้นอาจเป็นการแจ้งเตือน
04:35
you signed up for that the International Space Station is passing overhead
98
275026
3889
ที่คุณสมัครรับบริการไว้ ให้แจ้งเตือนเมื่อ สถานีอวกาศนานาชาติเคลื่อนผ่านเหนือบ้านคุณ
04:38
because you wanted to go outside
99
278915
1846
เพราะคุณอยากออกไปข้างนอก
04:40
and see if you could see it.
100
280761
1948
และดูว่าคุณจะสามารถเห็นมันได้หรือไม่
04:42
You're not going to get that chance
101
282709
1225
คุณจะไม่ได้รับโอกาสนั้น
04:43
if we mistakenly suspend the account
102
283934
1847
ถ้าเราระงับบัญชีนี้
04:45
thinking it's spam.
103
285781
2266
คิดว่ามันคือสแปม
04:48
Okay. Let's make the stakes higher.
104
288047
3526
โอเค ทีนี้มาดูเรื่องที่มีผลกระทบสำคัญขึ้นหน่อย
04:51
Back to my account,
105
291573
1916
กลับมาที่บัญชีของฉัน
04:53
again exhibiting classic behavior.
106
293489
3505
อีกครั้งกับพฤติกรรมสุดคลาสสิค
04:56
This time it's sending the same message and link.
107
296994
2643
ทีนี้มันส่งข้อความพร้อมด้วยลิงค์
04:59
This is often indicative of something called phishing,
108
299637
2774
บ่อยครั้ง สิ่งนี้คือตัวบ่งชี้ว่า มันคือสิ่งที่เรียกว่าการ ฟิชชิ่ง
05:02
somebody trying to steal another person's account information
109
302411
3178
ใครบางคนกำลังพยายามขโมยข้อมูล บัญชีของอีกคนหนึ่ง
05:05
by directing them to another website.
110
305589
2203
โดยชี้นำบุคคลไปยังอีกเว็บไซต์หนึ่ง
05:07
That's pretty clearly not a good thing.
111
307792
4194
ซึ่งดูแล้วไม่ปลอดภัยแน่ๆ
05:11
We want to, and do, suspend accounts
112
311986
1930
เราอยากทำ และเราก็ได้ทำการระงับบัญชี
05:13
engaging in that kind of behavior.
113
313916
2624
ที่แสดงพฤติกรรมแบบนี้
05:16
So why are the stakes higher for this?
114
316540
3247
ทีนี้ทำไมความเสี่ยงถึงได้มากขึ้น?
05:19
Well, this could also be a bystander at a rally
115
319787
2999
นี่อาจเป็นผู้เข้าชมการชุมนุม
05:22
who managed to record a video
116
322786
1910
ที่มีโอกาศได้อัดวีดีโอ
05:24
of a police officer beating a non-violent protester
117
324696
3270
ที่ตำรวจทำร้ายผู้ที่มาชุมนุมโดยสันติ
05:27
who's trying to let the world know what's happening.
118
327966
2975
และต้องการให้โลกได้รับรู้สิ่งที่เกิดขึ้น
05:30
We don't want to gamble
119
330941
1643
เราไม่อยากเสี่ยง
05:32
on potentially silencing that crucial speech
120
332584
2517
ที่จะปิดบังคำปราศรัยสำคัญ
05:35
by classifying it as spam and suspending it.
121
335101
2929
โดยการจำแนกว่ามันคือสแปมและระงับมัน
05:38
That means we evaluate hundreds of parameters
122
338030
2879
นั่นหมายความว่าเราประเมินตัวแปรเป็นร้อยๆ
05:40
when looking at account behaviors,
123
340909
1688
เมื่อดูพฤติกรรมของบัญชีต่างๆ
05:42
and even then, we can still get it wrong
124
342597
2016
แต่ถึงขนาดนั้น เราก็สามารถผิดพลาดได้
05:44
and have to reevaluate.
125
344613
2236
และจำเป็นต้องประเมินอีกครั้ง
05:46
Now, given the sorts of challenges I'm up against,
126
346849
3708
ทีนี้ ดูจากความท้าทายที่ฉันต้องเจอ
05:50
it's crucial that I not only predict
127
350557
2696
มันสำคัญมากที่นอกจากดิฉันจะคาดการณ์แล้ว
05:53
but also design protections for the unexpected.
128
353253
3784
ยังต้องออกแบบการป้องกันเหตุการณ์ที่ไม่อาจคาดคิด
05:57
And that's not just an issue for me,
129
357037
2342
และนั่นไม่ใช่แค่ปัญหาของดิฉัน
05:59
or for Twitter, it's an issue for you.
130
359379
2087
หรือทวิตเตอร์ แต่มันคือปัญหาสำหรับคุณ
06:01
It's an issue for anybody who's building or creating
131
361466
2406
มันคือปัญหาสำหรับทุกคนที่สร้างหรือผลิต
06:03
something that you think is going to be amazing
132
363872
1925
บางสิ่งที่คุณคิดว่ามันจะออกมามหัศจรรย์
06:05
and will let people do awesome things.
133
365797
2789
และจะทำให้ผู้คนได้ทำอะไรเจ๋งๆ
06:08
So what do I do?
134
368586
2866
ทีนี้ดิฉันจะทำอย่างไร?
06:11
I pause and I think,
135
371452
3318
ดิฉันหยุด และคิด
06:14
how could all of this
136
374770
2095
สิ่งต่างๆ ทั้งหมดนี้
06:16
go horribly wrong?
137
376865
3793
จะเกิดความผิดพลาดร้ายแรงได้อย่างไร?
06:20
I visualize catastrophe.
138
380658
4453
ดิฉันจินตนาการภัยพิบัติ
06:25
And that's hard. There's a sort of
139
385111
2463
และการทำแบบนั้นมันยาก มันมีบางอย่างที่
06:27
inherent cognitive dissonance in doing that,
140
387574
2848
ขัดแย้งกันในหัวเวลาทำแบบนั้น
06:30
like when you're writing your wedding vows
141
390422
1812
เหมือนเวลาที่คุณเขียนคำสาบานในงานแต่งงาน
06:32
at the same time as your prenuptial agreement.
142
392234
2646
พร้อมกับเขียนข้อตกลงก่อนแต่งงาน
06:34
(Laughter)
143
394880
1696
(เสียงหัวเราะ)
06:36
But you still have to do it,
144
396576
2373
แต่คุณก็ยังต้องทำมัน
06:38
particularly if you're marrying 500 million tweets per day.
145
398949
4446
โดยเฉพาะถ้าคุณต้องแต่งงานกับ 500 ล้าน ทวีตต่อวัน
06:43
What do I mean by "visualize catastrophe?"
146
403395
3097
ฉันหมายความอย่างไรเมื่อพูดว่า "จินตนาการภัยพิบัติ"
06:46
I try to think of how something as
147
406492
2762
ฉันพยายามคิดว่าบางสิ่งที่ดูอ่อนโยน
06:49
benign and innocuous as a picture of a cat
148
409254
3228
และไร้พิษสงอย่างรูปของแมว
06:52
could lead to death,
149
412482
1104
จะนำไปสู่ความตายได้อย่างไร
06:53
and what to do to prevent that.
150
413586
2326
และจะทำอะไรเพื่อป้องกันเหตุการณ์นั้น
06:55
Which happens to be my next example.
151
415912
2383
ซึ่งบังเอิญว่าเป็นตัวอย่างต่อไปของฉัน
06:58
This is my cat, Eli.
152
418295
3110
นี่คือแมวของดิฉัน อีไล
07:01
We wanted to give users the ability
153
421405
1981
เราต้องการมอบความสามารถในการเพิ่มรูป
07:03
to add photos to their tweets.
154
423386
2073
ลงไปในทวีตให้แก่ผู้ใช้บริการ
07:05
A picture is worth a thousand words.
155
425459
1597
หนึ่งภาพมีค่ามากกว่าพันคำพูด
07:07
You only get 140 characters.
156
427056
2009
คุณพิมพ์ได้แค่ 140 ตัวอักษร
07:09
You add a photo to your tweet,
157
429065
1200
คุณเพิ่มรูปภาพลงไปในทวีต
07:10
look at how much more content you've got now.
158
430265
3038
ดูสิตอนนี้คุณมีเนื้อหามากมายแค่ไหน
07:13
There's all sorts of great things you can do
159
433303
1677
มันมีสิ่งต่างๆ มากมายที่คุณทำได้
07:14
by adding a photo to a tweet.
160
434980
2007
โดยการเพิ่มรูปภาพลงไปในทวีตของคุณ
07:16
My job isn't to think of those.
161
436987
2280
หน้าที่ของดิฉันไม่ใช่การคิดถึงเรื่องพวกนั้น
07:19
It's to think of what could go wrong.
162
439267
2747
มันคือการคิดว่าอะไรจะผิดพลาด
07:22
How could this picture
163
442014
1892
รูปภาพนี้จะนำมาซึ่งความตาย
07:23
lead to my death?
164
443906
3539
ของดิฉันได้อย่างไร
07:27
Well, here's one possibility.
165
447445
3160
และนี่คือหนึ่งสิ่งที่เป็นไปได้
07:30
There's more in that picture than just a cat.
166
450605
3086
ในรูปภาพนั้นมันไม่ได้มีแค่แมวตัวเดียว
07:33
There's geodata.
167
453691
2092
มันมีข้อมูลทางภูมิศาสตร์
07:35
When you take a picture with your smartphone
168
455783
2212
เมื่อคุณถ่ายรูปด้วยโทรศัพท์อัจฉริยะ
07:37
or digital camera,
169
457995
1299
หรือกล้องถ่ายรูปดิจิตอล
07:39
there's a lot of additional information
170
459294
1654
มันมีข้อมูลมากมาย
07:40
saved along in that image.
171
460948
1616
ถูกบันทึกไปกับรูปภาพ
07:42
In fact, this image also contains
172
462564
1932
จริงๆ แล้ว รูปภาพนี้มี
07:44
the equivalent of this,
173
464496
1805
สิ่งที่มีค่าเท่ากับสิ่งนี้
07:46
more specifically, this.
174
466301
3079
เจาะจงไปอีกก็คือนี่
07:49
Sure, it's not likely that someone's going to try
175
469380
1956
แน่นอน มันดูไม่น่าจะมีใครพยายาม
07:51
to track me down and do me harm
176
471336
2285
สะกดรอยตามและทำร้ายดิฉัน
07:53
based upon image data associated
177
473621
1784
โดยใช้ข้อมูลที่เกี่ยวข้องกับ
07:55
with a picture I took of my cat,
178
475405
1948
รูปของแมวฉันที่ดิฉันถ่าย
07:57
but I start by assuming the worst will happen.
179
477353
3651
แต่ฉันเริ่มต้นด้วยการสมมติสิ่งที่เลวร้ายที่สุด
08:01
That's why, when we launched photos on Twitter,
180
481004
2338
และนั่นคือเหตุผลว่าทำไม ตอนที่เราเปิดตัว รูปภาพบนทวิตเตอร์
08:03
we made the decision to strip that geodata out.
181
483342
3821
เราตัดสินใจที่จะลบข้อมูลทางภูมิศาสตร์พวกนั้นออกไป
08:07
(Applause)
182
487163
5847
(เสียงปรบมือ)
08:13
If I start by assuming the worst
183
493010
2613
ถ้าดิฉันเริ่มต้นจากการสมมติสิ่งที่เลวร้ายที่สุด
08:15
and work backwards,
184
495623
947
และทำงานย้อนหลัง
08:16
I can make sure that the protections we build
185
496570
2553
ดิฉันจะสามารถมั่นใจได้ว่าระบบป้องกันที่เราสร้างขึ้น
08:19
work for both expected
186
499123
1768
จะเป็นประโยชน์กับเหตุการณ์ทั้งที่
08:20
and unexpected use cases.
187
500891
2078
คาดคิดและไม่คาดคิด
08:22
Given that I spend my days and nights
188
502969
2945
ถ้าดูจากที่ดิฉันใช้เวลาทั้งกลางวันและกลางคืน
08:25
imagining the worst that could happen,
189
505914
2541
จินตนาการสิ่งเลวร้ายต่างๆ ที่อาจเกิดขึ้น
08:28
it wouldn't be surprising if my worldview was gloomy.
190
508455
4257
มันคงไม่แปลกเลยถ้าโลกทัศน์ของดิฉันจะดูหดหู่
08:32
(Laughter)
191
512712
1783
(เสียงหัวเราะ)
08:34
It's not.
192
514495
1417
ไม่เลย
08:35
The vast majority of interactions I see --
193
515912
3876
ปฏิสัมพันธ์ส่วนใหญ่ที่ดิฉันได้เห็น
08:39
and I see a lot, believe me -- are positive,
194
519788
3901
และฉันได้เห็นเยอะ เชื่อฉันสิ เป็นไปในทางบวก
08:43
people reaching out to help
195
523689
1924
ผู้คนพยายามช่วยเหลือ
08:45
or to connect or share information with each other.
196
525613
3448
หรือเชื่อมต่อ หรือแบ่งปัน ซึ่งกันและกัน
08:49
It's just that for those of us dealing with scale,
197
529061
3323
มันแค่สำหรับพวกเราที่ต้องต่อกรกับขนาด
08:52
for those of us tasked with keeping people safe,
198
532384
3800
สำหรับพวกเราที่มีหน้าที่ดูแลให้ผู้คนปลอดภัย
08:56
we have to assume the worst will happen,
199
536184
2546
เราจำเป็นต้องสมมติว่าสิ่งที่เลวร้ายที่สุดจะเกิดขึ้น
08:58
because for us, a one-in-a-million chance
200
538730
4227
เพราะสำหรับพวกเรา โอกาสหนึ่งในล้านนั้น
09:02
is pretty good odds.
201
542957
2749
คือสิ่งที่เกิดขึ้นได้ไม่ยากเลย
09:05
Thank you.
202
545706
1864
ขอบคุณค่ะ
09:07
(Applause)
203
547570
4000
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7