Susan Etlinger: What do we do with all this big data?

Сюзан Этлиджер: Как быть с большими данными?

153,264 views

2014-10-20 ・ TED


New videos

Susan Etlinger: What do we do with all this big data?

Сюзан Этлиджер: Как быть с большими данными?

153,264 views ・ 2014-10-20

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Marina Lee Редактор: Aliaksandr Autayeu
00:13
Technology has brought us so much:
0
13354
3135
Техника дала нам очень многое:
00:16
the moon landing, the Internet,
1
16489
2019
полёт на луну, интернет,
00:18
the ability to sequence the human genome.
2
18508
2625
возможность упорядочить геном человека.
00:21
But it also taps into a lot of our deepest fears,
3
21133
3724
Но она может быть и устрашающей,
00:24
and about 30 years ago,
4
24857
1856
около 30-ти лет назад
00:26
the culture critic Neil Postman wrote a book
5
26713
2553
культурный критик Нил Постман
00:29
called "Amusing Ourselves to Death,"
6
29266
2115
выпустил книгу под названием «Забавляемся до смерти»,
00:31
which lays this out really brilliantly.
7
31381
2759
в которой блестяще это описал.
00:34
And here's what he said,
8
34140
1650
Вот что он сказал,
00:35
comparing the dystopian visions
9
35790
2263
сравнивая антиутопии
00:38
of George Orwell and Aldous Huxley.
10
38053
3573
Джорджа Оруэлла и Олдоса Хаксли,
00:41
He said, Orwell feared we would become
11
41626
3126
он сказал, что Оруэлл боялся,
00:44
a captive culture.
12
44752
2248
что мы станем несвободным обществом.
00:47
Huxley feared we would become a trivial culture.
13
47000
3752
Хаксли боялся, что мы будем тривиальным обществом.
00:50
Orwell feared the truth would be
14
50752
2145
Оруэлл опасался, что правда
00:52
concealed from us,
15
52897
1923
будет скрыта от нас,
00:54
and Huxley feared we would be drowned
16
54820
2190
а Хаксли — что мы утонем
00:57
in a sea of irrelevance.
17
57010
2693
в море ненужной информации.
00:59
In a nutshell, it's a choice between
18
59703
2170
Вкратце, это выбор между:
01:01
Big Brother watching you
19
61873
2600
Большой Брат смотрит за вами
01:04
and you watching Big Brother.
20
64473
2496
или вы смотрите «Большого Брата».
01:06
(Laughter)
21
66969
1931
(Смех)
01:08
But it doesn't have to be this way.
22
68900
1734
Но будущее не обязательно должно быть таким.
01:10
We are not passive consumers of data and technology.
23
70634
3336
Мы — не пассивные потребители информации и техники.
01:13
We shape the role it plays in our lives
24
73970
2403
Мы определяем, какую роль они играют в нашей жизни,
01:16
and the way we make meaning from it,
25
76373
2130
и какой смысл мы из них извлекаем,
01:18
but to do that,
26
78503
1603
но, чтобы это сделать, мы должны
01:20
we have to pay as much attention to how we think
27
80106
3513
уделять такое же внимание тому, как мы думаем,
01:23
as how we code.
28
83619
2030
как и тому, как мы программируем.
01:25
We have to ask questions, and hard questions,
29
85649
3098
Мы должны задавать вопросы, нелёгкие вопросы —
01:28
to move past counting things
30
88747
1869
для того, чтобы продвинуться от подсчёта вещей
01:30
to understanding them.
31
90616
2602
к их осмыслению.
01:33
We're constantly bombarded with stories
32
93218
2446
Мы постоянно слышим о том,
01:35
about how much data there is in the world,
33
95664
2476
как много информации в мире,
01:38
but when it comes to big data
34
98140
1580
но в случае больших данных
01:39
and the challenges of interpreting it,
35
99720
2596
и трудностей их понимания,
01:42
size isn't everything.
36
102316
2088
размер — это ещё не всё.
01:44
There's also the speed at which it moves,
37
104404
2903
Есть также скорость информации,
01:47
and the many varieties of data types,
38
107307
1696
и множество различных типов информации,
01:49
and here are just a few examples:
39
109003
2498
вот только несколько примеров:
01:51
images,
40
111501
2198
изображение,
01:53
text,
41
113699
4007
текст,
01:57
video,
42
117706
2095
видео,
01:59
audio.
43
119801
1830
аудио.
02:01
And what unites this disparate types of data
44
121631
3042
Объединяет эти разные виды информации то,
02:04
is that they're created by people
45
124673
2221
что они создаются людьми
02:06
and they require context.
46
126894
2775
и им необходим контекст.
02:09
Now, there's a group of data scientists
47
129669
2445
Есть группа учёных
02:12
out of the University of Illinois-Chicago,
48
132114
2305
в Иллинойском университете в Чикаго,
02:14
and they're called the Health Media Collaboratory,
49
134419
2554
их название — Коллаборатория о здравоохранении в СМИ,
02:16
and they've been working with the Centers for Disease Control
50
136973
2587
они сотрудничают с Центром по контролю заболеваний
02:19
to better understand
51
139560
1505
чтобы понять, как люди говорят
02:21
how people talk about quitting smoking,
52
141065
2848
о прекращении курения,
02:23
how they talk about electronic cigarettes,
53
143913
2680
как говорят об электронных сигаретах,
02:26
and what they can do collectively
54
146593
1985
и что может быть сделано для того,
02:28
to help them quit.
55
148578
1984
чтобы помочь им бросить курить.
02:30
The interesting thing is, if you want to understand
56
150562
2013
Интересно, что для того, чтобы понять
02:32
how people talk about smoking,
57
152575
2216
как люди говорят о прекращении курения,
02:34
first you have to understand
58
154791
1901
сначала нужно понять,
02:36
what they mean when they say "smoking."
59
156692
2565
что они имеют в виду под словом «курение».
02:39
And on Twitter, there are four main categories:
60
159257
3926
В Твиттере четыре основных категории:
02:43
number one, smoking cigarettes;
61
163183
2997
1. Курение сигарет,
02:46
number two, smoking marijuana;
62
166180
2807
2. Курение марихуаны,
02:48
number three, smoking ribs;
63
168987
2643
3. Копчение [курение] рёбрышек, и
02:51
and number four, smoking hot women.
64
171630
3553
4. Женщины, настолько горячие, что дым идёт.
02:55
(Laughter)
65
175183
2993
(Смех)
02:58
So then you have to think about, well,
66
178176
2426
Тогда вы задаётесь вопросом, как люди
03:00
how do people talk about electronic cigarettes?
67
180602
2140
говорят об электронных сигаретах?
03:02
And there are so many different ways
68
182742
2025
Очень по-разному,
03:04
that people do this, and you can see from the slide
69
184767
2599
и, как видно на слайде,
03:07
it's a complex kind of a query.
70
187366
2610
это очень сложный запрос.
03:09
And what it reminds us is that
71
189976
3224
И это напоминает нам о том,
03:13
language is created by people,
72
193200
2411
что люди создают язык,
03:15
and people are messy and we're complex
73
195611
2340
а мы сложные, и хаотичные,
03:17
and we use metaphors and slang and jargon
74
197951
2767
пользуемся метафорами, и сленгом, и жаргоном,
03:20
and we do this 24/7 in many, many languages,
75
200718
3279
и мы это делаем круглые сутки, на множестве языков,
03:23
and then as soon as we figure it out, we change it up.
76
203997
3224
и как только мы разбираемся, мы всё меняем.
03:27
So did these ads that the CDC put on,
77
207221
5118
Итак, помогла ли реклама, которую выпустил ЦКЗ,
03:32
these television ads that featured a woman
78
212339
2430
где показывали женщину с отверстием в горле,
03:34
with a hole in her throat and that were very graphic
79
214769
2021
очень наглядно показали,
03:36
and very disturbing,
80
216790
1904
страшные ролики —
03:38
did they actually have an impact
81
218694
1885
повлияли ли они
03:40
on whether people quit?
82
220579
2671
на курильщиков?
03:43
And the Health Media Collaboratory respected the limits of their data,
83
223250
3307
И учёные из Коллаборатории, учитывая ограниченность своих данных,
03:46
but they were able to conclude
84
226557
2005
пришли к выводу,
03:48
that those advertisements — and you may have seen them —
85
228562
3312
что эта реклама, вы её, возможно, видели,
03:51
that they had the effect of jolting people
86
231874
2591
она встряхнула людей,
03:54
into a thought process
87
234465
1822
заставила их задуматься, и это может
03:56
that may have an impact on future behavior.
88
236287
3667
повлиять на их поведение в будущем.
03:59
And what I admire and appreciate about this project,
89
239954
3891
Что я люблю и ценю в этом проекте,
04:03
aside from the fact, including the fact
90
243845
1489
помимо факта, и включая тот факт,
04:05
that it's based on real human need,
91
245334
4057
что проект был о реальной человеческой нужде,
04:09
is that it's a fantastic example of courage
92
249391
2846
то, что это потрясающий пример
04:12
in the face of a sea of irrelevance.
93
252237
4443
смелости в море ненужной информации.
04:16
And so it's not just big data that causes
94
256680
3305
Итак, не только большие данные представляют
04:19
challenges of interpretation, because let's face it,
95
259985
2601
сложность при интерпретации, потому что, честно,
04:22
we human beings have a very rich history
96
262586
2594
у нас у людей богатая история
04:25
of taking any amount of data, no matter how small,
97
265180
2693
неправильного понимания информации,
04:27
and screwing it up.
98
267873
1617
большого или маленького объёма.
04:29
So many years ago, you may remember
99
269490
3737
Много лет назад, если вы помните,
04:33
that former President Ronald Reagan
100
273227
2273
бывший президент Рональд Рейган
04:35
was very criticized for making a statement
101
275500
1991
подвергся критике за то, что сказал,
04:37
that facts are stupid things.
102
277491
3010
что факты — глупая вещь.
04:40
And it was a slip of the tongue, let's be fair.
103
280501
2794
Признаем, это была оговорка.
04:43
He actually meant to quote John Adams' defense
104
283295
2430
Он хотел цитировать слова Джона Адамса
04:45
of British soldiers in the Boston Massacre trials
105
285725
2751
из его защиты бостонских солдат,
04:48
that facts are stubborn things.
106
288476
3150
что факты — упрямая вещь.
04:51
But I actually think there's
107
291626
2624
А я думаю, в его оговорке
04:54
a bit of accidental wisdom in what he said,
108
294250
3418
есть случайная мудрость,
04:57
because facts are stubborn things,
109
297668
2776
потому что да, факты — упрямая вещь,
05:00
but sometimes they're stupid, too.
110
300444
2923
но иногда они и глупая вещь.
05:03
I want to tell you a personal story
111
303367
1888
Я хочу рассказать вам личную историю
05:05
about why this matters a lot to me.
112
305255
3548
о том, почему для меня это очень важно.
05:08
I need to take a breath.
113
308803
2437
Мне нужно перевести дыхание.
05:11
My son Isaac, when he was two,
114
311240
2754
Моему сыну Айзеку, когда ему было 2,
05:13
was diagnosed with autism,
115
313994
2417
был поставлен диагноз аутизм,
05:16
and he was this happy, hilarious,
116
316411
2161
он был таким счастливым, радостным,
05:18
loving, affectionate little guy,
117
318572
2035
очень любящим мальчиком,
05:20
but the metrics on his developmental evaluations,
118
320607
2902
но показатели его развития,
05:23
which looked at things like the number of words —
119
323509
2070
которые определялись, например, количеством слов —
05:25
at that point, none —
120
325579
3657
в то время он не говорил вообще —
05:29
communicative gestures and minimal eye contact,
121
329236
3940
коммуникативными жестами, минимальным зрительным контактом,
05:33
put his developmental level
122
333176
2003
определили его уровень развития
05:35
at that of a nine-month-old baby.
123
335179
3961
как 9-месячного младенца.
05:39
And the diagnosis was factually correct,
124
339140
2960
Фактически, диагноз был правильным,
05:42
but it didn't tell the whole story.
125
342100
3209
но он не отражал полной картины.
05:45
And about a year and a half later,
126
345309
1401
Примерно полтора года спустя,
05:46
when he was almost four,
127
346710
2102
ему было почти 4,
05:48
I found him in front of the computer one day
128
348812
2363
однажды, я застала его у компьютера,
05:51
running a Google image search on women,
129
351175
5453
он искал в гугле картинки женщин,
05:56
spelled "w-i-m-e-n."
130
356628
3616
написав «жинщины».
06:00
And I did what any obsessed parent would do,
131
360244
2740
Как любой одержимый родитель,
06:02
which is immediately started hitting the "back" button
132
362984
1901
я сразу стала нажимать кнопку «назад»,
06:04
to see what else he'd been searching for.
133
364885
3363
чтобы посмотреть, что ещё он искал.
06:08
And they were, in order: men,
134
368248
2171
Вот что: мужчины,
06:10
school, bus and computer.
135
370419
7267
школа, автобус, компьютер.
06:17
And I was stunned,
136
377686
2070
Я была поражена,
06:19
because we didn't know that he could spell,
137
379756
2002
потому что мы не знали, что он может писать,
06:21
much less read, and so I asked him,
138
381758
1766
не говоря о том, чтобы читать, и я спросила его:
06:23
"Isaac, how did you do this?"
139
383524
2193
«Айзек, как ты это сделал?»
06:25
And he looked at me very seriously and said,
140
385717
2678
Он посмотрел на меня очень серьёзно, и ответил:
06:28
"Typed in the box."
141
388395
3352
«Напечатал в коробочке».
06:31
He was teaching himself to communicate,
142
391747
3734
Он сам учился общению,
06:35
but we were looking in the wrong place,
143
395481
3004
а мы не туда смотрели,
06:38
and this is what happens when assessments
144
398485
2295
и такое случается, когда тесты
06:40
and analytics overvalue one metric —
145
400780
2396
переоценивают один показатель —
06:43
in this case, verbal communication —
146
403176
2609
в данном случае, вербальная коммуникация,
06:45
and undervalue others, such as creative problem-solving.
147
405785
5703
и недооценивают другие, например, находчивость при решении проблем.
06:51
Communication was hard for Isaac,
148
411488
2307
Айзеку было тяжело с общением,
06:53
and so he found a workaround
149
413795
1912
поэтому он нашёл другой способ
06:55
to find out what he needed to know.
150
415707
2857
узнать то, что ему было нужно.
06:58
And when you think about it, it makes a lot of sense,
151
418564
1890
Если подумать, всё становится ясно,
07:00
because forming a question
152
420454
2081
потому что сформировать вопрос —
07:02
is a really complex process,
153
422535
2565
это действительно сложный процесс,
07:05
but he could get himself a lot of the way there
154
425100
2522
но он мог подойти ближе к своей цели,
07:07
by putting a word in a search box.
155
427622
4092
набрав слово в поисковике.
07:11
And so this little moment
156
431714
2936
И этот маленький случай
07:14
had a really profound impact on me
157
434650
2836
очень сильно повлиял на меня,
07:17
and our family
158
437486
1309
и на нашу семью,
07:18
because it helped us change our frame of reference
159
438795
3141
потому что это помогло нам по-новому думать
07:21
for what was going on with him,
160
441936
2208
о том, что с Айзеком,
07:24
and worry a little bit less and appreciate
161
444144
2976
и переживать чуть меньше, и чуть больше радоваться
07:27
his resourcefulness more.
162
447120
2182
его находчивости.
07:29
Facts are stupid things.
163
449302
2861
Факты — глупая вещь.
07:32
And they're vulnerable to misuse,
164
452163
2397
Ими могут неправильно воспользоваться,
07:34
willful or otherwise.
165
454560
1653
нарочно или нет.
07:36
I have a friend, Emily Willingham, who's a scientist,
166
456213
3026
У меня есть подруга, Эмили Уиллингхэм, учёный,
07:39
and she wrote a piece for Forbes not long ago
167
459239
2801
она недавно написала статью для «Форбс»
07:42
entitled "The 10 Weirdest Things
168
462040
1980
под заглавием «10 самых странных вещей,
07:44
Ever Linked to Autism."
169
464020
1810
когда-либо связываемых с аутизмом».
07:45
It's quite a list.
170
465830
3005
Довольно интересный список.
07:48
The Internet, blamed for everything, right?
171
468835
3532
Интернет — его обвиняют во всём, так?
07:52
And of course mothers, because.
172
472367
3757
И, конечно же, матери — потому что.
07:56
And actually, wait, there's more,
173
476124
1587
Вообще-то, подождите, там
07:57
there's a whole bunch in the "mother" category here.
174
477711
3430
в категории «матери» ещё целый список.
08:01
And you can see it's a pretty rich and interesting list.
175
481141
4815
Как видите, очень колоритный и интересный список.
08:05
I'm a big fan of
176
485956
2193
Лично мне больше всего нравится
08:08
being pregnant near freeways, personally.
177
488149
3704
«беременность рядом с шоссе».
08:11
The final one is interesting,
178
491853
1539
Последний пункт интересен,
08:13
because the term "refrigerator mother"
179
493392
3003
потому что термин «мать-холодильник»
08:16
was actually the original hypothesis
180
496395
2605
был первой гипотезой
08:19
for the cause of autism,
181
499000
1431
причины аутизма,
08:20
and that meant somebody who was cold and unloving.
182
500431
2735
имелась в виду холодная, нелюбящая мать.
08:23
And at this point, you might be thinking,
183
503166
1562
Вы, наверное, думаете:
08:24
"Okay, Susan, we get it,
184
504728
1657
«Хорошо, Сюзан, мы поняли, можно взять
08:26
you can take data, you can make it mean anything."
185
506385
1782
любую информацию и представить её в любом свете».
08:28
And this is true, it's absolutely true,
186
508167
4703
И так и есть на самом деле,
08:32
but the challenge is that
187
512870
5610
но вопрос в том, что
08:38
we have this opportunity
188
518480
2448
у нас есть возможность
08:40
to try to make meaning out of it ourselves,
189
520928
2284
самим извлекать смысл, потому что, честно,
08:43
because frankly, data doesn't create meaning. We do.
190
523212
5352
информация не создаёт смысла. Смысл создаём мы.
08:48
So as businesspeople, as consumers,
191
528564
3256
Как предприниматели, потребители,
08:51
as patients, as citizens,
192
531820
2539
пациенты, граждане,
08:54
we have a responsibility, I think,
193
534359
2396
мы ответственны, я считаю,
08:56
to spend more time
194
536755
2194
за то, чтобы развивать
08:58
focusing on our critical thinking skills.
195
538949
2870
своё критическое мышление.
09:01
Why?
196
541819
1078
Почему?
09:02
Because at this point in our history, as we've heard
197
542897
3178
Потому что в данное время,
09:06
many times over,
198
546075
1706
как мы не раз слышали,
09:07
we can process exabytes of data
199
547781
1981
мы можем с молниеносной скоростью
09:09
at lightning speed,
200
549762
2153
обрабатывать экзабайт информации,
09:11
and we have the potential to make bad decisions
201
551915
3515
и потенциально, мы можем принимать плохие решения
09:15
far more quickly, efficiently,
202
555430
1834
намного быстрее, эффективнее,
09:17
and with far greater impact than we did in the past.
203
557264
5028
и с большим резонансом, чем в прошлом.
09:22
Great, right?
204
562292
1388
Здорово, правда?
09:23
And so what we need to do instead
205
563680
3030
И что нам лучше делать —
09:26
is spend a little bit more time
206
566710
2330
это тратить больше времени
09:29
on things like the humanities
207
569040
2746
на такие вещи как гуманитарные науки,
09:31
and sociology, and the social sciences,
208
571786
3464
социология и общественные науки,
09:35
rhetoric, philosophy, ethics,
209
575250
2308
риторика, философия, этика,
09:37
because they give us context that is so important
210
577558
2856
потому что они дают нам контекст,
09:40
for big data, and because
211
580414
2576
который так важен при работе с большими данными,
09:42
they help us become better critical thinkers.
212
582990
2418
они помогают нам лучше мыслить критически.
09:45
Because after all, if I can spot
213
585408
4207
Потому что, если я могу подметить
09:49
a problem in an argument, it doesn't much matter
214
589615
2486
проблему в суждении, не так важно,
09:52
whether it's expressed in words or in numbers.
215
592101
2759
выражена она словами или цифрами.
09:54
And this means
216
594860
2719
Это значит, если мы
09:57
teaching ourselves to find those confirmation biases
217
597579
4421
научимся находить предвзятость
10:02
and false correlations
218
602000
1822
и ошибочные взаимосвязи,
10:03
and being able to spot a naked emotional appeal
219
603822
2138
и за версту будем видеть
10:05
from 30 yards,
220
605960
1662
эмоциональную притягательность,
10:07
because something that happens after something
221
607622
2522
потому что, если что-то случается после чего-то,
10:10
doesn't mean it happened because of it, necessarily,
222
610144
3082
это ещё не значит, что оно случилось из-за первого.
10:13
and if you'll let me geek out on you for a second,
223
613226
2119
И если вы мне позволите минутку всезнайки,
10:15
the Romans called this "post hoc ergo propter hoc,"
224
615345
4297
римляне называли это «post hoc ergo propter hoc»,
10:19
after which therefore because of which.
225
619642
3296
«после этого, значит из-за этого».
10:22
And it means questioning disciplines like demographics.
226
622938
3757
И это означает переосмысление таких дисциплин как демография.
10:26
Why? Because they're based on assumptions
227
626695
2520
Почему? Потому что они основываются на предположениях
10:29
about who we all are based on our gender
228
629215
2306
о том, кто мы в связи с нашим полом,
10:31
and our age and where we live
229
631521
1462
возрастом, местом жительства
10:32
as opposed to data on what we actually think and do.
230
632983
3478
вместо информации о том, что мы думаем и делаем.
10:36
And since we have this data,
231
636461
1663
И потому что у нас эта информация есть,
10:38
we need to treat it with appropriate privacy controls
232
638124
3139
мы должны пользоваться ею с должной конфиденциальностью,
10:41
and consumer opt-in,
233
641263
3576
с разрешением граждан,
10:44
and beyond that, we need to be clear
234
644839
2993
и кроме того, мы должны
10:47
about our hypotheses,
235
647832
2103
ясно понимать собственные гипотезы
10:49
the methodologies that we use,
236
649935
2596
и какой методологией мы пользуемся
10:52
and our confidence in the result.
237
652531
2804
и свою уверенность в результатах.
10:55
As my high school algebra teacher used to say,
238
655335
2474
Как говорила мой школьный учитель алгебры,
10:57
show your math,
239
657809
1531
покажи вычисления,
10:59
because if I don't know what steps you took,
240
659340
3441
потому что если я не знаю, какие шаги вы предприняли,
11:02
I don't know what steps you didn't take,
241
662781
1991
я не знаю, какие вы не предпринимали,
11:04
and if I don't know what questions you asked,
242
664772
2438
и если я не знаю, какие вопросы вы задавали,
11:07
I don't know what questions you didn't ask.
243
667210
3197
я не знаю, какие не задавали.
11:10
And it means asking ourselves, really,
244
670407
1523
Это значит, что мы должны задать себе
11:11
the hardest question of all:
245
671930
1479
самый тяжёлый вопрос:
11:13
Did the data really show us this,
246
673409
3500
«На самом ли деле данные нам так показали
11:16
or does the result make us feel
247
676909
2311
или мы чувствуем себя успешнее
11:19
more successful and more comfortable?
248
679220
3878
и комфортнее с таким результатом?»
11:23
So the Health Media Collaboratory,
249
683098
2584
Так, учёные из Коллаборатории,
11:25
at the end of their project, they were able
250
685682
1699
в конце проекта они обнаружили,
11:27
to find that 87 percent of tweets
251
687381
3408
что 87% твитов
11:30
about those very graphic and disturbing
252
690789
2144
об этих пугающих роликах
11:32
anti-smoking ads expressed fear,
253
692933
4038
против курения выражали страх,
11:36
but did they conclude
254
696971
1856
Но заключили ли они,
11:38
that they actually made people stop smoking?
255
698827
3161
что ролики на деле заставили кого-то бросить курить?
11:41
No. It's science, not magic.
256
701988
2542
Нет. Это наука, а не магия.
11:44
So if we are to unlock
257
704530
3190
Так что, если мы хотим использовать
11:47
the power of data,
258
707720
2862
силу информации,
11:50
we don't have to go blindly into
259
710582
3448
нам не нужно слепо идти
11:54
Orwell's vision of a totalitarian future,
260
714030
3436
в оруэлльское тоталитарное будущее,
11:57
or Huxley's vision of a trivial one,
261
717466
3117
или банальное будущее Хаксли,
12:00
or some horrible cocktail of both.
262
720583
3020
либо какой-то ужасный коктейль из них.
12:03
What we have to do
263
723603
2379
Что нам необходимо —
12:05
is treat critical thinking with respect
264
725982
2718
это с уважением относиться к критическому мышлению
12:08
and be inspired by examples
265
728700
2029
и вдохновляться примерами, такими как
12:10
like the Health Media Collaboratory,
266
730729
2610
Коллаборатория о здравоохранении в СМИ.
12:13
and as they say in the superhero movies,
267
733339
2328
Как говорят в фильмах о супер-героях,
12:15
let's use our powers for good.
268
735667
1822
давайте использовать нашу силу для добра.
12:17
Thank you.
269
737489
2351
Спасибо.
12:19
(Applause)
270
739840
2334
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7