Visualizing the world's Twitter data - Jer Thorp

68,370 views ・ 2013-02-21

TED-Ed


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Transcriber: Andrea McDonough Reviewer: Bedirhan Cinar
0
0
7000
Tradutor: Ricardo Chikasawa Revisor: Wanderley Jesus
00:14
A couple of years ago I started using Twitter,
1
14668
2110
Alguns anos atrás. Eu comecei a usar Twitter,
00:16
and one of the things that really charmed me about Twitter
2
16778
3106
e uma das coisas que realmente me impressionou no Twitter
00:19
is that people would wake up in the morning
3
19884
2213
é que as pessoas acordam de manhã
00:22
and they would say, "Good morning!"
4
22097
2259
e dizem "Bom Dia!"
00:24
which I thought,
5
24356
1054
o que , a meu ver,
00:25
I'm a Canadian,
6
25410
1113
sou canadense
00:26
so I was a little bit,
7
26523
808
fui um pouco
00:27
I liked that politeness.
8
27331
1769
gostava de gentileza
00:29
And so, I'm also a giant nerd,
9
29100
2563
e assim, sou também um grande nerd,
00:31
and so I wrote a computer program
10
31663
1417
e também, escreve programas para computadores
00:33
that would record 24 hours of everybody on Twitter
11
33080
3421
e que 'twitaria' 24 horas para todos no Twitter
00:36
saying, "Good morning!"
12
36501
1324
dizendo "Bom Dia!"
00:37
And then I asked myself my favorite question,
13
37825
2213
e depois fiz essa mesma pergunta favorita a mim mesmo
00:40
"What would that look like?"
14
40038
1639
"O que isso se parece?"
00:41
Well, as it turns out, I think it would look something like this.
15
41677
3305
Bem, acontece que, eu penso que pareceria algo deste tipo
00:44
Right, so we'd see this wave of people
16
44982
2063
Certo, então viriamos estas onda de pessoas
00:47
saying, "Good morning!" across the world as they wake up.
17
47045
3445
dizendo, "Bom Dia!" para todo mundo assim que acorda.
00:50
Now the green people, these are people that wake up
18
50490
1794
Agora as pessoas de verde. Estas são as pessoas que acorda
00:52
at around 8 o'clock in the morning,
19
52284
2075
por volta das 8 horas da manhã.
00:54
Who wakes up at 8 o'clock or says, "Good morning!" at 8?
20
54359
3096
Quem acorada as 8 horas ou diz, "Bom Dia" as 8 ?
00:57
And the orange people,
21
57455
859
e as pessoas de laranja.
00:58
they say, "Good morning!" around 9.
22
58314
3579
Eles dizem: "Bom dia!" em torno das 9.
01:01
And the red people, they say, "Good morning!" around 10.
23
61906
2845
e as pessoas de vermelho, dizem: "Bom Dia!" por volta das 10.
01:04
Yeah, more at 10's than, more at 10's than 8's.
24
64751
3311
É, mais de 10 do vermelho, mais de 10 horas do que das 8 horas.
01:08
And actually if you look at this map,
25
68062
1127
E, na verdade, se você olhar para este mapa,
01:09
we can learn a little bit about how people wake up
26
69189
1933
podemos aprender um pouco sobre como as pessoas acorda
01:11
in different parts of the world.
27
71122
1275
em diferente partes do mundo.
01:12
People on the West Coast, for example,
28
72397
1345
As pessoas da Costa Oeste, por exemplo,
01:13
they wake up a little bit later
29
73742
1353
Eles acordam um pouco tarde
01:15
than those people on the East Coast.
30
75095
2965
do que essas pessoas na Costa Leste.
01:18
But that's not all that people say on Twitter, right?
31
78060
2358
Mas isso não é tudo o que as pessoas dizem no Twitter, certo?
01:20
We also get these really important tweets, like,
32
80418
2340
Teremos esses tweets verdadeiramente importante
01:22
"I just landed in Orlando!! [plane sign, plane sign]"
33
82758
4869
"Acabei de aterrizar em Orlando!! [placa de aeroporto, placa de aeroporto]
01:27
Or, or, "I just landed in Texas [exclamation point]!"
34
87627
3518
Ou, ou, "Acabei de aterrizar em Texas [Ponto de Interrogação]"
01:31
Or "I just landed in Honduras!"
35
91145
2274
Ou "Acabei de aterrisar em Honduras"
01:33
These lists, they go on and on and on,
36
93419
2140
Estas listas, continuam e assim por diante,
01:35
all these people, right?
37
95559
1873
todas essas pessoas, certo?
01:37
So, on the outside, these people are just telling us
38
97432
2737
Então,no exterior, essas pessoas estão apenas a dizer-nos
01:40
something about how they're traveling.
39
100169
2369
algo sobre como estão viajando
01:42
But we know the truth, don't we?
40
102538
1802
Embora, sabemos que não é verdade, concorda?
01:44
These people are show-offs!
41
104340
1901
Estas pessoas são ostensiva!
01:46
They are showing off that they're in Cape Town and I'm not.
42
106241
4194
Estão ostentando de modo que dizem que se encontra na Cidade do Cabo e
01:50
So I thought, how can we take this vanity
43
110435
2652
Então pensei, como podemos usar a vaidade
01:53
and turn it into utility?
44
113087
1796
e transformá-la em utilidade?
01:54
So using a similar approach that I did with "Good morning,"
45
114883
3421
Então, usando abordagem similar o que que eu fiz com "Bom dia"
01:58
I mapped all those people's trips
46
118304
2259
Eu fiz o mapeamento de todas as viagens dessas pessoas
02:00
because I know where they're landing,
47
120563
2092
porque eu sei onde eles estão aterrissando,
02:02
they just told me,
48
122655
1070
Disseram-me apenas que
02:03
and I know where they live
49
123725
1231
eu sei onde eles vivem
02:04
because they share that information on their Twitter profile.
50
124956
4012
pela razão de que eles compartilham essa informação em seu perfil no Twitter.
02:08
So what I'm able to do with 36 hours of Twitter
51
128968
3332
Neste caso, sou capaz de fazer com 36 horas de Twitter
02:12
is create a model of how people are traveling
52
132300
2921
é criar um modelo de como as pessoas estão viajando
02:15
around the world during that 36 hours.
53
135221
3018
em todo o mundo durante esse 36 horas.
02:18
And this is kind of a prototype
54
138239
1486
E isto é um tipo de protótipo
02:19
because I think if we listen to everybody
55
139725
2906
porque penso se escutássemos a todos
02:22
on Twitter and Facebook and the rest of our social media,
56
142631
2758
no Twitter e Facebook e em outro rede social.
02:25
we'd actually get a pretty clear picture
57
145389
1889
Tínhamos realmente obter uma imagem muito clara
02:27
of how people are traveling from one place to the other,
58
147278
3240
de como as pessoas estão viajando de um lugar para o outro,
02:30
which is actually turns out to be a very useful thing for scientists,
59
150518
3170
que é na verdade acaba por ser uma coisa muito útil para os cientistas,
02:33
particularly those who are studying how disease is spread.
60
153688
3738
particularmente, para aqueles que estão estudando como a doença se espalha.
02:37
So, I work upstairs in the New York Times,
61
157426
2187
Bem, trabalho no andar superior do New York Times.
02:39
and for the last two years,
62
159613
1109
e desde há dois anos,
02:40
we've been working on a project called, "Cascade,"
63
160722
2101
Temos trabalhando num projeto chamado, "Cascata"
02:42
which in some ways is kind of similar to this one.
64
162823
2649
que de certa forma é uma espécie semelhante a esta.
02:45
But instead of modeling how people move,
65
165472
2222
Mas ao invés de modelagem, como as pessoas se deslocam,
02:47
we're modeling how people talk.
66
167694
2168
estamos modelando como as pessoas falam.
02:49
We're looking at what does a discussion look like.
67
169862
3178
Estamos analisando o tipo de discussão.
02:53
Well, here's an example.
68
173040
1853
Bem, aqui está um exemplo.
02:54
This is a discussion around an article called,
69
174893
2815
Esta é uma discussão em torno de um artigo chamado,
02:57
"The Island Where People Forget to Die".
70
177708
2009
"A ilha em que as pessoas esquecem de morrer".
02:59
It's about an island in Greece where people live
71
179717
1642
Trata-se de uma ilha na Grécia, onde as pessoas vivem
03:01
a really, really, really, really, really, really long time.
72
181359
3070
em muito, muito, muito, muito, muito, muito tempo
03:04
And what we're seeing here
73
184429
1063
E o que estamos vendo aqui
03:05
is we're seeing a conversation that's stemming
74
185492
1922
é estamos vendo uma conversa isso é resultante
03:07
from that first tweet down in the bottom, left-hand corner.
75
187414
3038
desde aquele primeiro Tweet no canto inferior esquerdo.
03:10
So we get to see the scope of this conversation
76
190452
2513
Então, chegarmos a ver o alcance desta conversa
03:12
over about 9 hours right now,
77
192965
2168
durante cerca de nove horas, agora,
03:15
we're going to creep up to 12 hours here in a second.
78
195133
2350
vamos rastejar até 12 horas aqui em um segundo
03:17
But, we can also see what that conversation
79
197483
2319
Mas, também podemos ver o que essa conversa
03:19
looks like in three dimensions.
80
199802
1802
que aparece em três dimensões.
03:21
And that three-dimensional view is actually much more useful for us.
81
201604
3304
E essa visão tridimensional é realmente muito mais útil para nós.
03:24
As humans, we are really used to things
82
204908
1289
Como seres humanos, estamos realmente acostumado.
03:26
that are structured as three dimensions.
83
206197
1902
que são estruturados como três dimensões.
03:28
So, we can look at those little off-shoots of conversation,
84
208099
2679
Então, a gente pode olhar para essas pequenas ramificações de conversa,
03:30
we can find out what exactly happened.
85
210778
2562
podemos descobrir o que exatamente aconteceu.
03:33
And this is an interactive, exploratory tool
86
213340
1903
E esta é uma ferramenta interativa, exploratória
03:35
so we can go through every step in the conversation.
87
215243
2534
para que possamos ir a cada passo na conversa.
03:37
We can look at who the people were,
88
217777
1366
Podemos obeservar quem eram as pessoas.
03:39
what they said,
89
219143
1060
o que eles dizem
03:40
how old they are,
90
220203
1109
a idade que têm,
03:41
where they live,
91
221312
1167
onde vivem,
03:42
who follows them,
92
222479
992
quem os seguem,
03:43
and so on, and so on, and so on.
93
223471
2479
etc, etc, etc
03:45
So, the Times creates about 6,500 pieces of content every month,
94
225950
4882
Assim, o Times cria cerca de 6.500 peças de conteúdo a cada mês,
03:50
and we can model every single one
95
230832
1658
e podemos modelar cada um
03:52
of the conversations that happen around them.
96
232490
1732
das conversas que acontecem ao seu redor.
03:54
And they look somewhat different.
97
234222
1448
E eles parecem um pouco diferente.
03:55
Depending on the story
98
235670
1167
Dependendo da história
03:56
and depending on how fast people are talking about it
99
236837
2727
e dependendo da rapidez da qual a pessoas estão dizendo sobre isso.
03:59
and how far the conversation spreads,
100
239564
1835
e em que medida a conversa se propaga,
04:01
these structures, which I call these conversational architectures,
101
241399
4218
estas estruturas,no qual eu chamo de arquiteturas de conversação,
04:05
end up looking different.
102
245617
2455
terminam de outra forma.
04:08
So, these projects that I've shown you,
103
248072
2102
Assim, esses projetos que eu mostrei,
04:10
I think they all involve the same thing:
104
250174
2364
Acredito que abrangem todas as mesmas coisas:
04:12
we can take small pieces of data
105
252538
2075
podemos obter pequenos pedaços de informações
04:14
and by putting them together,
106
254613
1565
e colocando-os em conjunto,
04:16
we can generate more value,
107
256178
2236
podemos gerar mais valor,
04:18
we can do more exciting things with them.
108
258414
2103
podemos fazer as coisas mais interessantes com eles.
04:20
But so far we've only talked about Twitter, right?
109
260517
2204
Mas até agora nós só falamos sobre o Twitter, certo?
04:22
And Twitter isn't all the data.
110
262721
1965
e Twitter não são todas as informações
04:24
We learned a moment ago
111
264686
1202
Acabámos de tomar conhecimento, um pouco atrás,
04:25
that there is tons and tons,
112
265888
1248
que há toneladas e toneladas,
04:27
tons more data out there.
113
267136
2224
toneladas de dados lá fora.
04:29
And specifically, I want you to think about one type of data
114
269360
3089
E, especificamente, quero que você pense sobre um tipo de dados
04:32
because all of you guys,
115
272449
1942
porque todos vocês,
04:34
everybody in this audience, we,
116
274391
1597
todos neste auditório, nós,
04:35
we, me as well,
117
275988
1640
nós, assim como , para mim também
04:37
are data-making machines.
118
277629
2545
são máquina de fazer dados.
04:40
We are producing data all the time.
119
280174
2534
Produzimos dados a todo momento.
04:42
Every single one of us, we're producing data.
120
282708
2205
Cada um de nós, estamos produzindo dados.
04:44
Somebody else, though, is storing that data.
121
284913
2307
No entanto, alguém tem que amarzenar esses dados.
04:47
Usually we put our trust into companies to store that data,
122
287220
5538
Geralmente depositamos a nossa confiaça em empresa de armazenamento de dados
04:52
but what I want to suggest here
123
292758
2532
mas o que eu quero sugerir aqui
04:55
is that rather than putting our trust
124
295290
1774
é que em vez de depositar a nossa confiança
04:57
in companies to store that data,
125
297064
1735
em empresa de armazenamento de dados.
04:58
we should put the trust in ourselves
126
298799
1688
devemos depositar a confiança em nós mesmos
05:00
because we actually own that data.
127
300487
1919
porque realmente, essas informações nos pertence.
05:02
Right, that is something we should remember.
128
302406
1867
Certo, isso é algo que deveríamos lembrar.
05:04
Everything that someone else measures about you,
129
304273
2927
Tudo o que alguém menciona sobre seu respeito,
05:07
you actually own.
130
307200
2111
você realmente possui.
05:09
So, it's my hope,
131
309311
1167
Então, a minha esperança é,
05:10
maybe because I'm a Canadian,
132
310478
2190
talvez porque eu sou um canadense,
05:12
that all of us can come together
133
312668
1731
que todos podemos chegar juntos
05:14
with this really valuable data that we've been storing,
134
314399
3786
com esses dados realmente valiosas que seja armazenada
05:18
and we can collectively launch that data
135
318185
2878
e podemos agrupar os dados coletivamente
05:21
toward some of the world's most difficulty problems
136
321063
2841
para alguns dos problemas mundiais mais difícil.
05:23
because big data can solve big problems,
137
323904
3115
Porque grandes volumes de dados pode resolver grandes problemas,
05:27
but I think it can do it the best
138
327019
1635
mas eu penso que pode fazer isso da melhor forma.
05:28
if it's all of us who are in control.
139
328654
2870
Se é todos nós que estamos no controle.
05:31
Thank you.
140
331524
1502
Obrigado
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7