Visualizing the world's Twitter data - Jer Thorp

세상의 트위터 자료를 시각화하기(Visualizing the world's Twitter data) - 저 소프(Jer Thorp)

68,370 views

2013-02-21 ・ TED-Ed


New videos

Visualizing the world's Twitter data - Jer Thorp

세상의 트위터 자료를 시각화하기(Visualizing the world's Twitter data) - 저 소프(Jer Thorp)

68,370 views ・ 2013-02-21

TED-Ed


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

00:00
Transcriber: Andrea McDonough Reviewer: Bedirhan Cinar
0
0
7000
번역: Woo Hwang 검토: Gemma Lee
00:14
A couple of years ago I started using Twitter,
1
14668
2110
저는 몇 년 전부터 트위터를 사용하기 시작했습니다,
00:16
and one of the things that really charmed me about Twitter
2
16778
3106
그리고 트위터가 정말 매력적인 이유는
00:19
is that people would wake up in the morning
3
19884
2213
사람들이 아침에 일어나서
00:22
and they would say, "Good morning!"
4
22097
2259
"좋은 아침입니다" 라고 말해주는 것입니다,
00:24
which I thought,
5
24356
1054
물론 제 생각입니다,
00:25
I'm a Canadian,
6
25410
1113
저는 캐나다 사람입니다,
00:26
so I was a little bit,
7
26523
808
그래서 약간은
00:27
I liked that politeness.
8
27331
1769
공손함을 좋아합니다.
00:29
And so, I'm also a giant nerd,
9
29100
2563
그리고 저는 괴짜이기도 합니다,
00:31
and so I wrote a computer program
10
31663
1417
그래서 트위터를 사용하는 모든 사람들의
00:33
that would record 24 hours of everybody on Twitter
11
33080
3421
24시간을 기록하는 컴퓨터 프로그램을 만들었습니다,
00:36
saying, "Good morning!"
12
36501
1324
"좋은 아침" 이라고 말하면서 말이죠.
00:37
And then I asked myself my favorite question,
13
37825
2213
그리고 제 자신에게 자문을 해보았습니다,
00:40
"What would that look like?"
14
40038
1639
"어떻게 보일까?"
00:41
Well, as it turns out, I think it would look something like this.
15
41677
3305
결과는 이렇게 보일 겁니다.
00:44
Right, so we'd see this wave of people
16
44982
2063
네, 저희는 전세계 사람들이 아침에 일어나
00:47
saying, "Good morning!" across the world as they wake up.
17
47045
3445
"좋은 아침"이라고 말하는 물결을 보게 됩니다.
00:50
Now the green people, these are people that wake up
18
50490
1794
녹색으로 표시되는 사람들은
00:52
at around 8 o'clock in the morning,
19
52284
2075
대략 아침 8시에 일어나는 사람들입니다,
00:54
Who wakes up at 8 o'clock or says, "Good morning!" at 8?
20
54359
3096
어떤 분이 8시에 일어나세요? 또는 8시에 "좋은 아침"이라고 말씀하시나요?
00:57
And the orange people,
21
57455
859
주황색깔의 사람들은,
00:58
they say, "Good morning!" around 9.
22
58314
3579
9시에 "좋은 아침"이라고 말하는 사람들입니다.
01:01
And the red people, they say, "Good morning!" around 10.
23
61906
2845
그리고 빨간색의 사람들은 10시에 "좋은 아침"이라고 말합니다.
01:04
Yeah, more at 10's than, more at 10's than 8's.
24
64751
3311
네, 8시보다 10시에 사람들이 더 많습니다.
01:08
And actually if you look at this map,
25
68062
1127
사실 이 화면을 보면,
01:09
we can learn a little bit about how people wake up
26
69189
1933
사람들이 세상의 각 지역에서
01:11
in different parts of the world.
27
71122
1275
사람들이 일어나는 방법이 약간 다르다는 것을 알 수 있습니다.
01:12
People on the West Coast, for example,
28
72397
1345
예를 들어, 서부 해안의 사람들은
01:13
they wake up a little bit later
29
73742
1353
동부 해안에 사는 사람들보다
01:15
than those people on the East Coast.
30
75095
2965
조금 더 늦게 일어납니다.
01:18
But that's not all that people say on Twitter, right?
31
78060
2358
하지만 모든 사람들이 트위터에 글을 쓰지는 않죠?
01:20
We also get these really important tweets, like,
32
80418
2340
우리는 또한 다음과 같은 정말 중요한 트위터 메세지도 봅니다,
01:22
"I just landed in Orlando!! [plane sign, plane sign]"
33
82758
4869
"막 올랜도에 도착했습니다 !! [비행기 표시, 비행기 표시]"
01:27
Or, or, "I just landed in Texas [exclamation point]!"
34
87627
3518
또는 "지금 막 텍사스에 도착했어요 [느낌표]!"
01:31
Or "I just landed in Honduras!"
35
91145
2274
또는 "온두라스에 막 도착했어요!"
01:33
These lists, they go on and on and on,
36
93419
2140
이런 글들이 계속해서
01:35
all these people, right?
37
95559
1873
트위터에 올라옵니다, 그렇죠?
01:37
So, on the outside, these people are just telling us
38
97432
2737
겉보기에는 이 사람들은 자신들이 어떻게 여행을 하는지에 대해서
01:40
something about how they're traveling.
39
100169
2369
뭔가를 그냥 말하는 것입니다.
01:42
But we know the truth, don't we?
40
102538
1802
하지만 우리는 진실을 알고 있습니다. 그렇지 않나요?
01:44
These people are show-offs!
41
104340
1901
이 사람들은 자랑쟁이들입니다.
01:46
They are showing off that they're in Cape Town and I'm not.
42
106241
4194
저는 못갔지만 자기들은 케이프 타운(Cape Town)에 있다고 자랑질을 하고 있는 것입니다.
01:50
So I thought, how can we take this vanity
43
110435
2652
그래서 저는 어떻게 하면 이런 허영심을
01:53
and turn it into utility?
44
113087
1796
유용성으로 바꿀수 있을까를 생각했습니다.
01:54
So using a similar approach that I did with "Good morning,"
45
114883
3421
그래서 "좋은 아침" 프로그램과 비슷한 방법으로,
01:58
I mapped all those people's trips
46
118304
2259
모든 사람들의 여행을 표시해보았습니다,
02:00
because I know where they're landing,
47
120563
2092
왜냐하면 저는 그들이 어디에 도착했는지 알기 때문이죠.
02:02
they just told me,
48
122655
1070
트위터로 저에게 알려줬죠.
02:03
and I know where they live
49
123725
1231
그리고 트위터의 프로필 정보를 공유하기 때문에
02:04
because they share that information on their Twitter profile.
50
124956
4012
그 사람들이 어디에 사는지도 저는 알고 있습니다.
02:08
So what I'm able to do with 36 hours of Twitter
51
128968
3332
그래서 저는 트위터의 36시간의 정보로
02:12
is create a model of how people are traveling
52
132300
2921
사람들이 36시간동안 세상을
02:15
around the world during that 36 hours.
53
135221
3018
어떻게 여행하는지에 대한 모델을 만들 수 있습니다.
02:18
And this is kind of a prototype
54
138239
1486
이런 모델은 일종의 시작품인데요
02:19
because I think if we listen to everybody
55
139725
2906
왜냐하면 우리가 트위터, 페이스북 또는
02:22
on Twitter and Facebook and the rest of our social media,
56
142631
2758
기타 여러가지 소셜 미디어를 통해서 모든 사람들의 이야기를 듣는다면,
02:25
we'd actually get a pretty clear picture
57
145389
1889
사람들이 한 곳에서 다른 곳으로 어떻게 여행하는지에 대한
02:27
of how people are traveling from one place to the other,
58
147278
3240
아주 명확한 그림을 얻을 수 있습니다,
02:30
which is actually turns out to be a very useful thing for scientists,
59
150518
3170
그것은 실제로 과학자들에게 매우 유용한 정보가 된다는 것이 밝혀졌습니다.
02:33
particularly those who are studying how disease is spread.
60
153688
3738
특히 질병이 어떻게 전염되는지를 연구하는 학자들에게 말이죠.
02:37
So, I work upstairs in the New York Times,
61
157426
2187
저는 뉴욕 타임즈지에서 근무합니다.
02:39
and for the last two years,
62
159613
1109
그리고 지난 2년간
02:40
we've been working on a project called, "Cascade,"
63
160722
2101
우리는 "폭포수(Cascade)"라는 프로젝트는 진행했습니다.
02:42
which in some ways is kind of similar to this one.
64
162823
2649
지금 보여드린 이런 것과 비슷한 방법입니다.
02:45
But instead of modeling how people move,
65
165472
2222
하지만 사람들의 이동 방법을 모형화하는 것보다는
02:47
we're modeling how people talk.
66
167694
2168
사람들이 어떻게 대화하는지를 모형화하고 있습니다.
02:49
We're looking at what does a discussion look like.
67
169862
3178
사람들의 토론이 어떤 모습인지를 보고 있습니다.
02:53
Well, here's an example.
68
173040
1853
한 가지 예를 보여드리죠.
02:54
This is a discussion around an article called,
69
174893
2815
이것은 "죽음을 잊은 사람들이 사는 섬"이라는
02:57
"The Island Where People Forget to Die".
70
177708
2009
기사에 대한 토론내용입니다.
02:59
It's about an island in Greece where people live
71
179717
1642
이것은 그리스의 섬에 관한 이야기인데
03:01
a really, really, really, really, really, really long time.
72
181359
3070
그곳에서는 사람들이 정말, 정말, 정말, 오래 삽니다.
03:04
And what we're seeing here
73
184429
1063
우리가 보고 있는 것은
03:05
is we're seeing a conversation that's stemming
74
185492
1922
왼쪽 모퉁이에서 시작해서 대화의 내용이
03:07
from that first tweet down in the bottom, left-hand corner.
75
187414
3038
가지를 치면서 뻗어나가는 모습입니다.
03:10
So we get to see the scope of this conversation
76
190452
2513
그래서 대략 9시간 남짓의
03:12
over about 9 hours right now,
77
192965
2168
대화 범위를 보시게 됩니다,
03:15
we're going to creep up to 12 hours here in a second.
78
195133
2350
그리고 순식간에 12시간으로 늘어나게 됩니다.
03:17
But, we can also see what that conversation
79
197483
2319
이런 대화는 3차원 화면으로
03:19
looks like in three dimensions.
80
199802
1802
볼 수도 있습니다.
03:21
And that three-dimensional view is actually much more useful for us.
81
201604
3304
이런 3차원 화면은 우리에게 더욱 유용합니다.
03:24
As humans, we are really used to things
82
204908
1289
인간은 이렇게 3차원으로 구성된 사물에
03:26
that are structured as three dimensions.
83
206197
1902
매우 친숙합니다.
03:28
So, we can look at those little off-shoots of conversation,
84
208099
2679
그래서 이런 대화의 작은 가지치기를 볼 수 있습니다,
03:30
we can find out what exactly happened.
85
210778
2562
그리고 정확하게 어떤 일이 일어나는지 알 수 있습니다.
03:33
And this is an interactive, exploratory tool
86
213340
1903
그리고 이런 화면은 상호 작용적이고, 탐색적인 도구입니다,
03:35
so we can go through every step in the conversation.
87
215243
2534
그래서 대화의 모든 과정을 관찰할 수 있습니다.
03:37
We can look at who the people were,
88
217777
1366
어떤 사람들인지,
03:39
what they said,
89
219143
1060
무엇을 말했는지,
03:40
how old they are,
90
220203
1109
몇 살인지,
03:41
where they live,
91
221312
1167
어디에 사는지,
03:42
who follows them,
92
222479
992
누가 그 사람들을 "팔로우"하는지
03:43
and so on, and so on, and so on.
93
223471
2479
등등, 여러가지를 알 수 있습니다.
03:45
So, the Times creates about 6,500 pieces of content every month,
94
225950
4882
그래서 뉴욕타임즈에서는 매달 6,500개의 기사 내용를 만들어 냅니다,
03:50
and we can model every single one
95
230832
1658
그리고 대화 하나 하나 마다
03:52
of the conversations that happen around them.
96
232490
1732
어떤 일이 일어나고 있는지를 모형화 합니다.
03:54
And they look somewhat different.
97
234222
1448
그 대화들은 조금씩 다르게 보여집니다.
03:55
Depending on the story
98
235670
1167
이야기에 따라서,
03:56
and depending on how fast people are talking about it
99
236837
2727
그리고 사람들이 얼마나 빨리 이야기 하는지에 따라서,
03:59
and how far the conversation spreads,
100
239564
1835
그리고 대화가 얼마나 널리 퍼져 나가는지에 따라서,
04:01
these structures, which I call these conversational architectures,
101
241399
4218
제가 대화의 구조라고 부르는 이런 구조들이
04:05
end up looking different.
102
245617
2455
결국 다른 모양을 띄게 됩니다.
04:08
So, these projects that I've shown you,
103
248072
2102
제가 보여드린 이런 프로젝트들에서,
04:10
I think they all involve the same thing:
104
250174
2364
모든 프로젝트들이 공통점을 가지고 있다고 생각합니다:
04:12
we can take small pieces of data
105
252538
2075
작은 자료를 추출해서
04:14
and by putting them together,
106
254613
1565
함께 모으면,
04:16
we can generate more value,
107
256178
2236
더많은 가치를 생성할 수 있고,
04:18
we can do more exciting things with them.
108
258414
2103
더 재미있는 것들을 할 수 있습니다.
04:20
But so far we've only talked about Twitter, right?
109
260517
2204
그런데 지금까지 트위터만 이야기했죠, 그렇죠?
04:22
And Twitter isn't all the data.
110
262721
1965
트위터가 모든 데이터는 아닙니다.
04:24
We learned a moment ago
111
264686
1202
정말 많은 데이터가
04:25
that there is tons and tons,
112
265888
1248
세상에는 있다는 것을
04:27
tons more data out there.
113
267136
2224
바로 전에 알았습니다.
04:29
And specifically, I want you to think about one type of data
114
269360
3089
특별히 여러분들이 한 종류의 자료를
04:32
because all of you guys,
115
272449
1942
생각해주시기 바랍니다,
04:34
everybody in this audience, we,
116
274391
1597
왜냐하면 저는 물론이고
04:35
we, me as well,
117
275988
1640
여기 오신 모든 청중들은
04:37
are data-making machines.
118
277629
2545
자료 제작자들이니까요.
04:40
We are producing data all the time.
119
280174
2534
사람들은 항상 자료를 만들어 내고 있습니다.
04:42
Every single one of us, we're producing data.
120
282708
2205
우리들 한명 한명이 자료를 생산하고 있습니다.
04:44
Somebody else, though, is storing that data.
121
284913
2307
그러나 누군가는 자료를 저장하고 있습니다.
04:47
Usually we put our trust into companies to store that data,
122
287220
5538
보통 우리는 그 자료를 저장하는 회사들을 신뢰합니다.
04:52
but what I want to suggest here
123
292758
2532
하지만 여기서 제가 제안하는 것은
04:55
is that rather than putting our trust
124
295290
1774
그 자료를 저장하는
04:57
in companies to store that data,
125
297064
1735
회사를 신뢰하기 보다는
04:58
we should put the trust in ourselves
126
298799
1688
우리 자신을 신뢰해야 합니다.
05:00
because we actually own that data.
127
300487
1919
왜냐하면 사실 우리가 자료를 가지고 있으니까요.
05:02
Right, that is something we should remember.
128
302406
1867
바로 그점이 우리가 기억해야 하는 것입니다.
05:04
Everything that someone else measures about you,
129
304273
2927
여러분에 대해서 측정하는 모든 것이
05:07
you actually own.
130
307200
2111
사실은 여러분들 소유입니다.
05:09
So, it's my hope,
131
309311
1167
그래서 제 희망은
05:10
maybe because I'm a Canadian,
132
310478
2190
아마도 저는 캐나다 사람이기 때문에,
05:12
that all of us can come together
133
312668
1731
우리가 저장하고 있는 모든 유용한 자료를
05:14
with this really valuable data that we've been storing,
134
314399
3786
함께 모을 수 있습니다.
05:18
and we can collectively launch that data
135
318185
2878
그리고 세상에서 가장 어려운 문제를 위해서
05:21
toward some of the world's most difficulty problems
136
321063
2841
총괄적으로 그 자료를 사용하는 것입니다.
05:23
because big data can solve big problems,
137
323904
3115
왜냐하면 거대 자료(Big Data)는 큰 문제를 해결 할 수 있기 때문입니다.
05:27
but I think it can do it the best
138
327019
1635
하지만 그것은 우리의 통제하에 있을 때
05:28
if it's all of us who are in control.
139
328654
2870
가장 잘 할 수 있습니다.
05:31
Thank you.
140
331524
1502
감사합니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7