Deb Roy: The birth of a word

دب روی : تولد یک کلمه

410,607 views ・ 2011-03-14

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Mohammad Reza Minoosepehr Reviewer: Negar S
00:15
Imagine if you could record your life --
0
15260
4000
تصور کنید می تونستید زندگی تان رو ضبط کنید
00:19
everything you said, everything you did,
1
19260
3000
همه حرفهایی که زدید، همه کارهایی که کردید،
00:22
available in a perfect memory store at your fingertips,
2
22260
3000
همه در یه حافظه کامل ذخیره شده، براحتی در دسترس شما ،
00:25
so you could go back
3
25260
2000
به گونه ای که می تونستید به گذشته ها برگردید
00:27
and find memorable moments and relive them,
4
27260
3000
و لحظه های خاطره انگیز رو بیابید و دوباره از نو زنده کنید.
00:30
or sift through traces of time
5
30260
3000
و یا با دنبال کردن ردپای زمان
00:33
and discover patterns in your own life
6
33260
2000
ساختارهایی رو در زندگی تان کشف کنید
00:35
that previously had gone undiscovered.
7
35260
3000
که قبلا مخفی مانده بودند.
00:38
Well that's exactly the journey
8
38260
2000
این درست همون سفری است
00:40
that my family began
9
40260
2000
که خانواده من
00:42
five and a half years ago.
10
42260
2000
پنج سال و نیم پیش آغاز کرد.
00:44
This is my wife and collaborator, Rupal.
11
44260
3000
این روپال، همسر و همکار منه.
00:47
And on this day, at this moment,
12
47260
2000
و در این روز، در این لحظه
00:49
we walked into the house with our first child,
13
49260
2000
ما با اولین فرزندمان ، پسر کوچولوی خوشگلمون
00:51
our beautiful baby boy.
14
51260
2000
وارد خونه شدیم.
00:53
And we walked into a house
15
53260
3000
وارد خونه ای که
00:56
with a very special home video recording system.
16
56260
4000
مجهز به یه سیستم ضبط خونگی خیلی خاص بود.
01:07
(Video) Man: Okay.
17
67260
2000
عکاس: بسیار خب
01:10
Deb Roy: This moment
18
70260
1000
این لحظه
01:11
and thousands of other moments special for us
19
71260
3000
و هزاران لحظه خاص دیگر برای ما
01:14
were captured in our home
20
74260
2000
در خونه ما ضبط شدند.
01:16
because in every room in the house,
21
76260
2000
چرا که در تمام اطاق های خونه
01:18
if you looked up, you'd see a camera and a microphone,
22
78260
3000
اگر به بالا نگاه می کردید، یک دوربین و میکروفون می دیدید
01:21
and if you looked down,
23
81260
2000
و اگربه پایین نگاه می کردید
01:23
you'd get this bird's-eye view of the room.
24
83260
2000
این نمای کلی اطاق رو می دیدید.
01:25
Here's our living room,
25
85260
3000
اینجا اطاق پذیرایی مان است،
01:28
the baby bedroom,
26
88260
3000
اطاق خواب بچه،
01:31
kitchen, dining room
27
91260
2000
آشپرخانه ، نهارخوری
01:33
and the rest of the house.
28
93260
2000
و مابقی جاهای خونه.
01:35
And all of these fed into a disc array
29
95260
3000
تمام این صحنه ها در یه سری دیسک هایی
01:38
that was designed for a continuous capture.
30
98260
3000
که برای فیلمبرادری بدون وقفه طراحی شده اند ، ذخیره می شد.
01:41
So here we are flying through a day in our home
31
101260
3000
خب اینجا ما داریم در طول یه روز در خونه سریع حرکت می کنیم
01:44
as we move from sunlit morning
32
104260
3000
چنانکه از صبح یه روز روشن
01:47
through incandescent evening
33
107260
2000
به سمت عصر می رویم
01:49
and, finally, lights out for the day.
34
109260
3000
و در انتهای روز هم چراغ ها خاموش می شوند.
01:53
Over the course of three years,
35
113260
3000
در طول سه سال
01:56
we recorded eight to 10 hours a day,
36
116260
2000
ما روزی ۸ تا ۱۰ ساعت ضبط کردیم.
01:58
amassing roughly a quarter-million hours
37
118260
3000
در مجموع چیزی حدود یه چهارم میلیون ساعت
02:01
of multi-track audio and video.
38
121260
3000
بصورت فایل صوتی تصویری ضبط شد.
02:04
So you're looking at a piece of what is by far
39
124260
2000
پس شما شاهد قسمتی از به مراتب بزرگترین
02:06
the largest home video collection ever made.
40
126260
2000
مجموعه ویدیوی خونگی که تا حالا ساخته شده هستید.
02:08
(Laughter)
41
128260
3000
( خندیدن حضار)
02:11
And what this data represents
42
131260
2000
و آنچه این اطلاعات
02:13
for our family at a personal level,
43
133260
4000
در وجه شخصی برای خانواده ما بیان می کنن
02:17
the impact has already been immense,
44
137260
2000
تا الان تاثیر زیادی داشته
02:19
and we're still learning its value.
45
139260
3000
و ما هنوز داریم از ارزش های این کار یاد میگیریم.
02:22
Countless moments
46
142260
2000
لحظه های بیشماری
02:24
of unsolicited natural moments, not posed moments,
47
144260
3000
لحظه های واقعی نه لحظه های ساختگی،
02:27
are captured there,
48
147260
2000
ضبط شده اند. و ما تازه داریم یاد می گیریم که
02:29
and we're starting to learn how to discover them and find them.
49
149260
3000
چگونه می شه تمام این لحظات روجستجو کرد و دریافت.
02:32
But there's also a scientific reason that drove this project,
50
152260
3000
اما در عین حال انجام این پروژه یه دلیل علمی هم داشت.
02:35
which was to use this natural longitudinal data
51
155260
4000
دلیل علمی این پروژه، استفاده از این اطلاعاتِ دراز مدت
02:39
to understand the process
52
159260
2000
برای فهمِ روندِ
02:41
of how a child learns language --
53
161260
2000
یادگیری زبان توسط یه کودک
02:43
that child being my son.
54
163260
2000
یعنی پسرم بود.
02:45
And so with many privacy provisions put in place
55
165260
4000
با در نظر گرفتن حفظ بسیاری از مسایل شخصی
02:49
to protect everyone who was recorded in the data,
56
169260
3000
برای محافظت از تمام کسانی که از اونها فیلم گرفته شده،
02:52
we made elements of the data available
57
172260
3000
ما اجزای اطلاعات رو
02:55
to my trusted research team at MIT
58
175260
3000
در اختیار تیم تحقیقاتی مورد اعتمادم در MIT قرار دادیم
02:58
so we could start teasing apart patterns
59
178260
3000
تا شروع کنیم ساختارهایی رو
03:01
in this massive data set,
60
181260
3000
در این مجموعه عظیم داده ها
03:04
trying to understand the influence of social environments
61
184260
3000
دربارهً تاثیر محیط های اجتماعی روی
03:07
on language acquisition.
62
187260
2000
اکتساب زبان بیابیم.
03:09
So we're looking here
63
189260
2000
در این جا شما
03:11
at one of the first things we started to do.
64
191260
2000
یکی از اولین کارهایی رو که انجام دادیم می بینید.
03:13
This is my wife and I cooking breakfast in the kitchen,
65
193260
4000
این من و همسرم هستیم که در آشپزخانه مشغول درست کردن صبحانه ایم و
03:17
and as we move through space and through time,
66
197260
3000
همینطور که در طول مسیر زمان و مکان جلو میریم،
03:20
a very everyday pattern of life in the kitchen.
67
200260
3000
کار روزمره زندگی در آشپزخانه رو می بینید.
03:23
In order to convert
68
203260
2000
برای تبدیل کردن
03:25
this opaque, 90,000 hours of video
69
205260
3000
این ۹۰/۰۰۰ ساعت ویدیوی مبهم،
03:28
into something that we could start to see,
70
208260
2000
به چیزی که بشه فهمید،
03:30
we use motion analysis to pull out,
71
210260
2000
ما از روش "تجزيهً حرکت" Motion analysis
03:32
as we move through space and through time,
72
212260
2000
در محورهای زمان و مکان استفاده کردیم
03:34
what we call space-time worms.
73
214260
3000
روشی که ما اون را " کرم های زمان- مکان" می نامیم.
03:37
And this has become part of our toolkit
74
217260
3000
این یه بخشی از ابزار ما است
03:40
for being able to look and see
75
220260
3000
برای اینکه بفهمیم
03:43
where the activities are in the data,
76
223260
2000
در داده ها کجا فعالیتی رخ داده
03:45
and with it, trace the pattern of, in particular,
77
225260
3000
و به خصوص رد پای پسرم
03:48
where my son moved throughout the home,
78
228260
2000
به جاهایی که در طول خونه می رفت رو دنبال کنیم
03:50
so that we could focus our transcription efforts,
79
230260
3000
بدین ترتیب، تونستیم روی فعالیت تبدیل گفتار به نوشتار تمرکز کنیم
03:53
all of the speech environment around my son --
80
233260
3000
تمام محیط گفتاری اطراف پسرم،
03:56
all of the words that he heard from myself, my wife, our nanny,
81
236260
3000
تمام کلماتی که از من، همسرم یا پرستارش می شنید ،
03:59
and over time, the words he began to produce.
82
239260
3000
و کلماتی که بعد از یه مدت شروع به گفتن کرد رو ثبت کردیم.
04:02
So with that technology and that data
83
242260
3000
به کمک این فناوری و داده ها
04:05
and the ability to, with machine assistance,
84
245260
2000
و همچنین به کمک
04:07
transcribe speech,
85
247260
2000
دستگاه تبدیل گفتار به نوشتار
04:09
we've now transcribed
86
249260
2000
تا کنون بیش از
04:11
well over seven million words of our home transcripts.
87
251260
3000
۷ میلیون کلمه از گفتارهای خونمون رو نوشته ایم.
04:14
And with that, let me take you now
88
254260
2000
اجازه بدید تا شما رو به اولین سفر
04:16
for a first tour into the data.
89
256260
3000
به درون این داده ها ببرم.
04:19
So you've all, I'm sure,
90
259260
2000
همه شما مطمئنا
04:21
seen time-lapse videos
91
261260
2000
فیلم های گذر زمان رو دیدید
04:23
where a flower will blossom as you accelerate time.
92
263260
3000
فیلم هایی که می تونید با جلو بردن سریع زمان مثلا مراحل شکوفه دادن یه گل رو ببیند.
04:26
I'd like you to now experience
93
266260
2000
دوست دارم الان یکی از اونها رو تجربه کنید
04:28
the blossoming of a speech form.
94
268260
2000
منتها به جای گل ، شکوفه دادن یه نوع گفتار رو ببینید.
04:30
My son, soon after his first birthday,
95
270260
2000
پسرم، چند روز بعد از نخستین سال تولدش
04:32
would say "gaga" to mean water.
96
272260
3000
برای گفتن "آب" می گفت " gaga".
04:35
And over the course of the next half-year,
97
275260
3000
و در عرض شش ماهِ بعد
04:38
he slowly learned to approximate
98
278260
2000
کم کم یاد گرفت که تقریبا
04:40
the proper adult form, "water."
99
280260
3000
به گونه ای که خاص بزرگتر هاست بگه "water (آب)"
04:43
So we're going to cruise through half a year
100
283260
2000
حالا می خواهیم تا ۶ ماه از سال رو در
04:45
in about 40 seconds.
101
285260
2000
۴۰ ثانیه پشت سر بذاریم.
04:47
No video here,
102
287260
2000
این قسمت تصویری نیست.
04:49
so you can focus on the sound, the acoustics,
103
289260
3000
پس می تونید روی صدا تمرکز کنید.
04:52
of a new kind of trajectory:
104
292260
2000
نوع جدیدی از سیر صداها:
04:54
gaga to water.
105
294260
2000
از "gaga" تا " water (آب) "
04:56
(Audio) Baby: Gagagagagaga
106
296260
12000
Gagagagagaga
05:08
Gaga gaga gaga
107
308260
4000
Gaga gaga gaga
05:12
guga guga guga
108
312260
5000
guga guga guga
05:17
wada gaga gaga guga gaga
109
317260
5000
wada gaga gaga guga gaga
05:22
wader guga guga
110
322260
4000
wader guga guga
05:26
water water water
111
326260
3000
water water water
05:29
water water water
112
329260
6000
water water water
05:35
water water
113
335260
4000
water water
05:39
water.
114
339260
2000
water.
05:41
DR: He sure nailed it, didn't he.
115
341260
2000
بهتر از این نمی شد. مگه نه!
05:43
(Applause)
116
343260
7000
(تشویق حضار)
05:50
So he didn't just learn water.
117
350260
2000
اون فقط کلمه " آب " رو یاد نگرفت
05:52
Over the course of the 24 months,
118
352260
2000
در ۲۴ ماه
05:54
the first two years that we really focused on,
119
354260
3000
( دوسال اولی که خیلی تمرکز کردیم)
05:57
this is a map of every word he learned in chronological order.
120
357260
4000
این نقشه تمام کلماتی است که به ترتیب زمان یادگرفت.
06:01
And because we have full transcripts,
121
361260
3000
و به خاطر رونوشت کاملی که داشتیم
06:04
we've identified each of the 503 words
122
364260
2000
تمام ۵۰۳ کلمه ای که
06:06
that he learned to produce by his second birthday.
123
366260
2000
تا دومین سال تولدش یاد گرفت رو شناسایی کردیم .
06:08
He was an early talker.
124
368260
2000
پسرم زود زبون باز کرد.
06:10
And so we started to analyze why.
125
370260
3000
بعد شروع کردیم به تحلیل "چرا"
06:13
Why were certain words born before others?
126
373260
3000
چرا یک سری از کلمات زودتر از کلمات دیگر متولد شدند؟
06:16
This is one of the first results
127
376260
2000
این یکی از نخستین نتایجی است
06:18
that came out of our study a little over a year ago
128
378260
2000
که حدوداٌ یک سال پیش، از تحقیقاتمان حاصل شد و
06:20
that really surprised us.
129
380260
2000
واقعا ما رو شگفت زده کرد.
06:22
The way to interpret this apparently simple graph
130
382260
3000
روش تفسیر این نمودارِ به ظاهر ساده اینه که
06:25
is, on the vertical is an indication
131
385260
2000
محور عمودی
06:27
of how complex caregiver utterances are
132
387260
3000
میزان پیچیدگی گفتارِ مراقب بچه
06:30
based on the length of utterances.
133
390260
2000
( بر اساس بلندی بند‌های گفتار )
06:32
And the [horizontal] axis is time.
134
392260
3000
و محور افقی زمان رو نشان میدهد.
06:35
And all of the data,
135
395260
2000
ما تمام داده ها رو
06:37
we aligned based on the following idea:
136
397260
3000
بر اساس ایده زیر مرتب کردیم:
06:40
Every time my son would learn a word,
137
400260
3000
هر دفعه که پسرم یه لغت جدید یاد می گرفت
06:43
we would trace back and look at all of the language he heard
138
403260
3000
ما به عقب بر می گشتیم و تمام حرفهایی که شنیده بود رو بررسی می کردیم.
06:46
that contained that word.
139
406260
2000
(حرفهایی که شامل آن کلمه می شدند.)
06:48
And we would plot the relative length of the utterances.
140
408260
4000
و بعد رابطه طول بندهای گفتاری رو رسم کردیم.
06:52
And what we found was this curious phenomena,
141
412260
3000
اونچیزی که به دست آمد این پدیده شگفت آور بود،
06:55
that caregiver speech would systematically dip to a minimum,
142
415260
3000
که حرفهای مراقب بچه به شکل سازماندهی شده ای تا کمترین حد بندهای گفتاری پایین می رفت،
06:58
making language as simple as possible,
143
418260
3000
(تا زبان را تا حد ممکن ساده و قابل فهم کنه)
07:01
and then slowly ascend back up in complexity.
144
421260
3000
و بعد به آرامی بالا می اومد و به همون نقطه پیچیدگی برمی گشت.
07:04
And the amazing thing was
145
424260
2000
و چیزی که شگفت آور بود این بود
07:06
that bounce, that dip,
146
426260
2000
که فراز و فرود پیچیدگی بندهای گفتار
07:08
lined up almost precisely
147
428260
2000
تقریبا به شکل یکسانی
07:10
with when each word was born --
148
430260
2000
در زمان تولد هر کلمه بوجود می اومد.
07:12
word after word, systematically.
149
432260
2000
کلمه پشت کلمه ، (کاملا) سازماندهی شده.
07:14
So it appears that all three primary caregivers --
150
434260
2000
بنابراین مشخص شد که هر سه مراقبت اصلی
07:16
myself, my wife and our nanny --
151
436260
3000
یعنی من و همسرم و پرستار بچه
07:19
were systematically and, I would think, subconsciously
152
439260
3000
به شکل سازماندهی شده ، و من فکر می کنم، نیمه آگاهانه
07:22
restructuring our language
153
442260
2000
در حال تغییر ساختار زبانمان بودیم
07:24
to meet him at the birth of a word
154
444260
3000
تا در تولد یه کلمه، با پسرم هم‌آهنگ بشیم.
07:27
and bring him gently into more complex language.
155
447260
4000
و سپس به آرامی او رو به زبان پیچیده تر ببریم.
07:31
And the implications of this -- there are many,
156
451260
2000
اینها مفاهیم زیادی داره
07:33
but one I just want to point out,
157
453260
2000
ولی من فقط به یکی از اونها اشاره می کنم
07:35
is that there must be amazing feedback loops.
158
455260
3000
و آن این که باید حلقه های بازخوردی وجود داشته باشه.
07:38
Of course, my son is learning
159
458260
2000
درسته که پسرم در حال یادگیری
07:40
from his linguistic environment,
160
460260
2000
از محیط زبانی اطرافشه،
07:42
but the environment is learning from him.
161
462260
3000
اما محیط هم داره از اون یاد میگیره.
07:45
That environment, people, are in these tight feedback loops
162
465260
3000
محیط ، یعنی مردم، در این حلقه‌های تنگِ بازخورد حضور دارن
07:48
and creating a kind of scaffolding
163
468260
2000
و در حال ساخت یک نوع پایه و اساسی هستند
07:50
that has not been noticed until now.
164
470260
3000
که تا حالا مورد توجه قرار نگرفته .
07:54
But that's looking at the speech context.
165
474260
2000
اما این بررسي بافتِ گفتاری است،
07:56
What about the visual context?
166
476260
2000
بافتِ دیداری چطور؟
07:58
We're not looking at --
167
478260
2000
چیزی رو که می بینید
08:00
think of this as a dollhouse cutaway of our house.
168
480260
2000
مثل یک برش مقطعی از خونه ما در نظر بگیرید
08:02
We've taken those circular fish-eye lens cameras,
169
482260
3000
ما دوربین‌های با لنز‌های چرخان رو برداشتیم
08:05
and we've done some optical correction,
170
485260
2000
و یه مقدار اصلاحات نوری انجام دادیم
08:07
and then we can bring it into three-dimensional life.
171
487260
4000
تا یک صحنه زندگی سه بعدی بسازیم.
08:11
So welcome to my home.
172
491260
2000
به خونه من خوش آمدید.
08:13
This is a moment,
173
493260
2000
این لحظه
08:15
one moment captured across multiple cameras.
174
495260
3000
لحظه ایه که در برابر دوربین‌های متعدد گرفته شده .
08:18
The reason we did this is to create the ultimate memory machine,
175
498260
3000
هدف این کار ایجاد یک دستگاه حافظه اصلی است که در اون
08:21
where you can go back and interactively fly around
176
501260
3000
شما می تونید به عقب باز گردید و آزادانه در اطراف بچرخید
08:24
and then breathe video-life into this system.
177
504260
3000
و بعد ویدیو رو وارد سیستم کنید.
08:27
What I'm going to do
178
507260
2000
کاری که من می خوام انجام بدم
08:29
is give you an accelerated view of 30 minutes,
179
509260
3000
اینه که به شما بار دیگه نمایی سریع از ۳۰ دقیقه
08:32
again, of just life in the living room.
180
512260
2000
از زندگی ام رو در اطاق پذیرایی نشون بدم.
08:34
That's me and my son on the floor.
181
514260
3000
اینجا من و پسرم هستیم که روی زمین نشستیم.
08:37
And there's video analytics
182
517260
2000
اینم ویدیوی آنالیزیه
08:39
that are tracking our movements.
183
519260
2000
که ردپای حرکت ما رو تو خونه دنبال می کنه.
08:41
My son is leaving red ink. I am leaving green ink.
184
521260
3000
پسرم از خودش رنگ قرمز و منم رنگ سبز به جا میذارم.
08:44
We're now on the couch,
185
524260
2000
الان روی مبل هستیم
08:46
looking out through the window at cars passing by.
186
526260
3000
و داریم از پنجره ماشین هایی که رد می شند رو تماشا می کنیم.
08:49
And finally, my son playing in a walking toy by himself.
187
529260
3000
در آخر هم پسرم داره تنهایی خودش بازی میکنه.
08:52
Now we freeze the action, 30 minutes,
188
532260
3000
حالا فعالیت این ۳۰ دقیقه رو متوقف می کنیم و
08:55
we turn time into the vertical axis,
189
535260
2000
زمان رو محور عمودی قرار میدهم
08:57
and we open up for a view
190
537260
2000
حالا بازش می کنیم تا نمایی
08:59
of these interaction traces we've just left behind.
191
539260
3000
از ردپای کارایی که از خودمون به جا گذاشتیم داشته باشیم.
09:02
And we see these amazing structures --
192
542260
3000
و با این ساختار حیرت آور روبرو می شیم
09:05
these little knots of two colors of thread
193
545260
3000
به گره های ریز دورنگ این رشته
09:08
we call "social hot spots."
194
548260
2000
"نقاط حساس اجتماعی "
09:10
The spiral thread
195
550260
2000
و به این رشته های مارپیچی
09:12
we call a "solo hot spot."
196
552260
2000
"نقاط حساس فردی" می گوییم.
09:14
And we think that these affect the way language is learned.
197
554260
3000
ما معتقدیم که این نقاط بر روی روش یادگیری زبان تاثیر میذارند.
09:17
What we'd like to do
198
557260
2000
کاری که ما می خواهیم انجام بدیم
09:19
is start understanding
199
559260
2000
فهمیدن رابطه
09:21
the interaction between these patterns
200
561260
2000
میان این ساختارها و زبانی است که
09:23
and the language that my son is exposed to
201
563260
2000
پسرم در معرض اون قرار داره.
09:25
to see if we can predict
202
565260
2000
تا ببنیم آیا می تونیم پیش بینی کنیم
09:27
how the structure of when words are heard
203
567260
2000
که چطور زمان شنیده شدن کلمات
09:29
affects when they're learned --
204
569260
2000
بر روی یادگیری اونها تاثیر می گذارد.
09:31
so in other words, the relationship
205
571260
2000
به عبارت دیگه، رابطه
09:33
between words and what they're about in the world.
206
573260
4000
بین کلمات و اینکه اونها در دنیا چه چیز رو بیان می کنند.
09:37
So here's how we're approaching this.
207
577260
2000
از این روی، این روشیه که ما در پیش گرفته ایم.
09:39
In this video,
208
579260
2000
در این ویدیو
09:41
again, my son is being traced out.
209
581260
2000
بار دیگه ، رد پای پسرم دنبال می شه.
09:43
He's leaving red ink behind.
210
583260
2000
اون رنگ قرمز رو از خودش به جا میذاره.
09:45
And there's our nanny by the door.
211
585260
2000
و اونجا هم پرستار بچه نزدیک در ایستاده .
09:47
(Video) Nanny: You want water? (Baby: Aaaa.)
212
587260
3000
پرستار: آب می خوای؟ ( بچه: Aaaa.)
09:50
Nanny: All right. (Baby: Aaaa.)
213
590260
3000
پرستار: باشه.( بچه: Aaaa.)
09:53
DR: She offers water,
214
593260
2000
آب بهش پیشنهاد می کنه و
09:55
and off go the two worms
215
595260
2000
با جا گذاشتن دو مسیر
09:57
over to the kitchen to get water.
216
597260
2000
به آشپرخونه می ره تا آب بیاره.
09:59
And what we've done is use the word "water"
217
599260
2000
و کاری که ما انجام دادیم استفاده از کلمه "آب"
10:01
to tag that moment, that bit of activity.
218
601260
2000
برای برچسب زدن این لحظه، این کار کوچک بود.
10:03
And now we take the power of data
219
603260
2000
و حالا با به کاربردن توان داده ها
10:05
and take every time my son
220
605260
3000
و با درنظر گرفتن تمام لحظه هایی که پسرم
10:08
ever heard the word water
221
608260
2000
کلمه "آب " رو شنیده
10:10
and the context he saw it in,
222
610260
2000
و همچنین بافتی که این کلمه رو در اون دیده،
10:12
and we use it to penetrate through the video
223
612260
3000
به درون ویدیو نفوذ می کنیم و
10:15
and find every activity trace
224
615260
3000
رد پای تمام فعالیت هایی که به نوعی
10:18
that co-occurred with an instance of water.
225
618260
3000
با گفتن کلمه "آب" همزمان بوده رو پیدا می کنیم.
10:21
And what this data leaves in its wake
226
621260
2000
و ردی که این داده ها از خودشون به جا میذارند
10:23
is a landscape.
227
623260
2000
یه نماست.
10:25
We call these wordscapes.
228
625260
2000
ما بهش می گیم " نمای لغتی".
10:27
This is the wordscape for the word water,
229
627260
2000
این نمای لغتی کلمه "آب" است،
10:29
and you can see most of the action is in the kitchen.
230
629260
2000
و می بینید که بیشترین فعالیت در آشپزخونه است.
10:31
That's where those big peaks are over to the left.
231
631260
3000
اونجا که اون دوتا قله بزرگ در سمت چپ قرار دارن.
10:34
And just for contrast, we can do this with any word.
232
634260
3000
و برای مقایسه، می تونیم این روش رو با هر کلمه ای آزمایش کنیم.
10:37
We can take the word "bye"
233
637260
2000
می تونیم کلمه "bye" رو در نظر بگیریم
10:39
as in "good bye."
234
639260
2000
مثل " goodbye( خداحافظ )".
10:41
And we're now zoomed in over the entrance to the house.
235
641260
2000
حالا روی ورودی خونه متمرکز می شیم.
10:43
And we look, and we find, as you would expect,
236
643260
3000
و همونطور که انتظار می ره، شاهد یه
10:46
a contrast in the landscape
237
646260
2000
تفاوت در نما هستیم
10:48
where the word "bye" occurs much more in a structured way.
238
648260
3000
جایی که کلمه "bye" در یه شیوه ساختاری بیشتر به کار میره.
10:51
So we're using these structures
239
651260
2000
بنابراین از این ساختارها استفاده می کنیم
10:53
to start predicting
240
653260
2000
تا شروع کنیم به پیش بینی کردن
10:55
the order of language acquisition,
241
655260
3000
ترتیب مراحل اکتساب زبان.
10:58
and that's ongoing work now.
242
658260
2000
و در حال حاضر داریم روی اون کار میکنیم.
11:00
In my lab, which we're peering into now, at MIT --
243
660260
3000
در آزمایشگاه من ، جایی که الان می بینید ، در MIT--
11:03
this is at the media lab.
244
663260
2000
اینجا آزمایشگاه رسانه ایست.
11:05
This has become my favorite way
245
665260
2000
این یکی از روش های مورد علاقه من
11:07
of videographing just about any space.
246
667260
2000
در تهیه ودیوی های گرافیکی در هر محدوده مکانی است.
11:09
Three of the key people in this project,
247
669260
2000
اینجا سه نفر از افراد کلیدی در این تحقیق،
11:11
Philip DeCamp, Rony Kubat and Brandon Roy are pictured here.
248
671260
3000
فلیپ دی کمپ، رونی کوبات و براندون روی رو می بینید.
11:14
Philip has been a close collaborator
249
674260
2000
فیلیپ یه پای اصلی در تهیه تمام
11:16
on all the visualizations you're seeing.
250
676260
2000
کارهای تصویری است که می بینید.
11:18
And Michael Fleischman
251
678260
3000
و مایکل فلیشمن
11:21
was another Ph.D. student in my lab
252
681260
2000
یکی دیگه از دانشجوهای دکتری در آزمایشگاه من بود
11:23
who worked with me on this home video analysis,
253
683260
3000
که با من در تجزیه این ویدیوهای خونگی همکاری می کرد و
11:26
and he made the following observation:
254
686260
3000
این دیدگاه رو عنوان کرد که :
11:29
that "just the way that we're analyzing
255
689260
2000
"درست همون روشی که در تحلیل
11:31
how language connects to events
256
691260
3000
چگونگی ارتباط زبان با رویدادهایی که
11:34
which provide common ground for language,
257
694260
2000
زمینه های مشترک برای زبان مهیا می کنند
11:36
that same idea we can take out of your home, Deb,
258
696260
4000
رو می تونیم از خونه تو برداریم ،دب
11:40
and we can apply it to the world of public media."
259
700260
3000
و در دنیای رسانه ها هم به کار بریم".
11:43
And so our effort took an unexpected turn.
260
703260
3000
اینگونه، تلاش های ما وارد یه دور غیر منتظره شد.
11:46
Think of mass media
261
706260
2000
فکر کردن به رسانه های گروهی
11:48
as providing common ground
262
708260
2000
به عنوان فراهم کننده های زمینه مشترک برای گفت و گوی مردم،
11:50
and you have the recipe
263
710260
2000
راهکاری است
11:52
for taking this idea to a whole new place.
264
712260
3000
برای به کار این ایده در مکان کاملا جدید.
11:55
We've started analyzing television content
265
715260
3000
شروع کردیم به تحلیل محتوای تلویزیون.
11:58
using the same principles --
266
718260
2000
با استفاده از اصول قبلی--
12:00
analyzing event structure of a TV signal --
267
720260
3000
تحلیل ساختار وقایع یه کانال تلویزیون
12:03
episodes of shows,
268
723260
2000
بخش های نمایشی،
12:05
commercials,
269
725260
2000
پیام های بازرگانی،
12:07
all of the components that make up the event structure.
270
727260
3000
و کلا همه اجزایی که ساختار وقایع رو شکل می دهند.
12:10
And we're now, with satellite dishes, pulling and analyzing
271
730260
3000
در حال حاظر ، به کمک دیش های ماهواره در حال تحلیل
12:13
a good part of all the TV being watched in the United States.
272
733260
3000
بخشِ قابل توجهي از تمام برنامه های تلویزیونی که در آمریکا دیده می شن هستیم.
12:16
And you don't have to now go and instrument living rooms with microphones
273
736260
3000
و شما مجبور نیستید در اطاقهای نشیمن میکروفن بذارید
12:19
to get people's conversations,
274
739260
2000
تا مکالمه افراد رو بفهمید،
12:21
you just tune into publicly available social media feeds.
275
741260
3000
فقط کافیه در فید‌های عمومی رسانه‌های اجتماعی موجود عضو باشید.
12:24
So we're pulling in
276
744260
2000
اینجوری ماهانه حدود
12:26
about three billion comments a month,
277
746260
2000
سه میلیارد پیام دریافت می کنیم.
12:28
and then the magic happens.
278
748260
2000
اینجاست که شگفتی رخ میده.
12:30
You have the event structure,
279
750260
2000
شما ساختارِ اتفاق، یعنی برنامه تلویزیون رو دارید
12:32
the common ground that the words are about,
280
752260
2000
( زمینه مشترکی که کلمات
12:34
coming out of the television feeds;
281
754260
3000
و از فید های تلویزیونی بیرون میاد)
12:37
you've got the conversations
282
757260
2000
بدین ترتیب شما مکالمه هایی رو
12:39
that are about those topics;
283
759260
2000
که درباره اون موضوعات هستند مورد بررسی قرار میدهید
12:41
and through semantic analysis --
284
761260
3000
و در تحلیل اجزای معنایی
12:44
and this is actually real data you're looking at
285
764260
2000
اینها که می بینید اطلاعات واقعی اند که از
12:46
from our data processing --
286
766260
2000
پردازش داده هایمان بدست آمده.
12:48
each yellow line is showing a link being made
287
768260
3000
هر خط زرد بیانگر ارتباطیه که داره شکل میگیره.
12:51
between a comment in the wild
288
771260
3000
بین یه پیام در دنیای واقعی
12:54
and a piece of event structure coming out of the television signal.
289
774260
3000
و ساختار اتفاقی که از یک شبکه تلویزیونی حاصل شده.
12:57
And the same idea now
290
777260
2000
اینگونه یه ایده مشابه
12:59
can be built up.
291
779260
2000
می تونه ساخته بشه.
13:01
And we get this wordscape,
292
781260
2000
و ما به این نمای لغتی می رسیم،
13:03
except now words are not assembled in my living room.
293
783260
3000
منتها اینبار کلمات از محدوده اطاق من جمع آوری نشدند.
13:06
Instead, the context, the common ground activities,
294
786260
4000
در عوض بافت ، فعالیت هایی با زمینه مشترک،
13:10
are the content on television that's driving the conversations.
295
790260
3000
محتوایی از برنامه تلویزیون هستن که مکالمه ها در اونها شکل می گیرند.
13:13
And what we're seeing here, these skyscrapers now,
296
793260
3000
و اونچه اینجا شاهدش هستیم، این آسمان خراشها،
13:16
are commentary
297
796260
2000
تفاسیری هستند
13:18
that are linked to content on television.
298
798260
2000
که با بافت تلویزیون مرتبط شده اند.
13:20
Same concept,
299
800260
2000
مفهوم یکسانه
13:22
but looking at communication dynamics
300
802260
2000
اما ببینید چگونه ارتباط در محیطی
13:24
in a very different sphere.
301
804260
2000
کاملا متفاوت، فعال است.
13:26
And so fundamentally, rather than, for example,
302
806260
2000
و به طور اساسی، به جای مثلا
13:28
measuring content based on how many people are watching,
303
808260
3000
ارزیابی بافت براساس اینکه چه تعداد در حال تماشا کردنن،
13:31
this gives us the basic data
304
811260
2000
این به ما داده اصلی برای
13:33
for looking at engagement properties of content.
305
813260
3000
بررسی ویژگی های تعاملی بافت رو می ده.
13:36
And just like we can look at feedback cycles
306
816260
3000
و همونطور که می تونیم چرخه های بازخورد
13:39
and dynamics in a family,
307
819260
3000
و فعالیت های یه خانواده رو بررسی کنیم،
13:42
we can now open up the same concepts
308
822260
3000
می تونیم مفاهیم یکسانی داشته باشیم و
13:45
and look at much larger groups of people.
309
825260
3000
گروهای بزرگتری از افراد رو بررسی کنیم.
13:48
This is a subset of data from our database --
310
828260
3000
این بخشی از داده هاست--
13:51
just 50,000 out of several million --
311
831260
3000
تنها ۵۰/۰۰۰ از چندین میلیون داده--
13:54
and the social graph that connects them
312
834260
2000
و نمودار اجتماعی که اونها رو در منابع عمومی موجود
13:56
through publicly available sources.
313
836260
3000
به همدیگه مرتبط می سازه.
13:59
And if you put them on one plain,
314
839260
2000
اگه اونها رو در یه سطح قرار بدید،
14:01
a second plain is where the content lives.
315
841260
3000
سطح دوم جایی است که محتوا وجود داره.
14:04
So we have the programs
316
844260
3000
بنابراین ما برنامه ها
14:07
and the sporting events
317
847260
2000
و وقایع ورزشی
14:09
and the commercials,
318
849260
2000
و پیام های بازرگانی ،
14:11
and all of the link structures that tie them together
319
851260
2000
و تمام ساختارهای ارتباطی که اونها رو به هم گره میزنن
14:13
make a content graph.
320
853260
2000
و یه نمودار محتوایی رو می سازن رو با هم داریم.
14:15
And then the important third dimension.
321
855260
4000
و حالا سومین بعد پراهمیت.
14:19
Each of the links that you're seeing rendered here
322
859260
2000
تمام ارتباطاتی که شما در اینجا می بینید
14:21
is an actual connection made
323
861260
2000
یه ارتباط واقعی بین
14:23
between something someone said
324
863260
3000
یه چیزی که یه کسی گفته
14:26
and a piece of content.
325
866260
2000
و زمینهً اون گفته است.
14:28
And there are, again, now tens of millions of these links
326
868260
3000
و بازدوباره ، ده ها میلیون از این ارتباط ها وجود داره که به ما
14:31
that give us the connective tissue of social graphs
327
871260
3000
نمودار شبکه ارتباطی اجتماعی و اینکه اونها
14:34
and how they relate to content.
328
874260
3000
چگونه در ارتباط با محتوا هستند رو ارایه می دن.
14:37
And we can now start to probe the structure
329
877260
2000
و حالا می تونیم به روشهای جالب شروع کنیم به
14:39
in interesting ways.
330
879260
2000
کنکاش در ساختار.
14:41
So if we, for example, trace the path
331
881260
3000
برای مثال ما بخشی از محتوا
14:44
of one piece of content
332
884260
2000
که سبب میشه یه فرد مطلبی رو
14:46
that drives someone to comment on it,
333
886260
2000
درباره آن محتوا بیان کنه در نظر می گیریم،
14:48
and then we follow where that comment goes,
334
888260
3000
و بعد جاهایی که آن نظر می رود رو دنبال می کنیم،
14:51
and then look at the entire social graph that becomes activated
335
891260
3000
وحالا بینید که تمام نمودار اجتماعی فعال شده
14:54
and then trace back to see the relationship
336
894260
3000
و بعد بر می گردیم تا رابطه بین
14:57
between that social graph and content,
337
897260
2000
آن نمودار اجتماعی و محتوا رو بفهمیم ،
14:59
a very interesting structure becomes visible.
338
899260
2000
در اینجا یه ساختار بسیار جالب آشکار میشه.
15:01
We call this a co-viewing clique,
339
901260
2000
ما بهش می گیم " دسته ناظران همزمان "
15:03
a virtual living room if you will.
340
903260
3000
یا به قولی" یه اطاق نشیمن مجازی".
15:06
And there are fascinating dynamics at play.
341
906260
2000
جریان پویای بسیار حیرت آوری در جریانه.
15:08
It's not one way.
342
908260
2000
این یه طرفه نیست.
15:10
A piece of content, an event, causes someone to talk.
343
910260
3000
یه بخش از محتوا،یه اتفاق، سبب میشه تا یه نفر "صحبت کنه".
15:13
They talk to other people.
344
913260
2000
بعد اونها با دیگران صحبت می کنند.
15:15
That drives tune-in behavior back into mass media,
345
915260
3000
این باعث میشه تا رفتار شکل گرفته دوباره به رسانه های اجتماعی بر گرده،
15:18
and you have these cycles
346
918260
2000
و شما این چرخه ها رو
15:20
that drive the overall behavior.
347
920260
2000
در تمام رفتارها می بینید.
15:22
Another example -- very different --
348
922260
2000
یه مثال دیگه --کاملا متفاوت
15:24
another actual person in our database --
349
924260
3000
یه فرد واقعی دیگه در داده هایمان
15:27
and we're finding at least hundreds, if not thousands, of these.
350
927260
3000
و اگه نگم هزاران، حداقل صدها نوع از این چرخه رو می بینیم.
15:30
We've given this person a name.
351
930260
2000
ما برای این فرد یه اسم گذاشتیم.
15:32
This is a pro-amateur, or pro-am media critic
352
932260
3000
او یه "طرفدار تازه کار" ، یه منتقد رسانه ایست
15:35
who has this high fan-out rate.
353
935260
3000
که هوادارای بسیار زیادی داره.
15:38
So a lot of people are following this person -- very influential --
354
938260
3000
بنابراین افراد زیادی این فرد رو دنبال می کنند --خیلی با نفوذه
15:41
and they have a propensity to talk about what's on TV.
355
941260
2000
اونها تمایل زیادی به صحبت کردن درباره برنامه های تلویزیون دارند.
15:43
So this person is a key link
356
943260
3000
بنابراین این فرد یه ارتباط اصلی
15:46
in connecting mass media and social media together.
357
946260
3000
در برقراری ارتباط بین رسانه های گروهی و اجتماعی است.
15:49
One last example from this data:
358
949260
3000
آخرین مثال از این داده ها:
15:52
Sometimes it's actually a piece of content that is special.
359
952260
3000
یه وقتهایی درواقع یه بخشی از محتواست که خیلی خاصه.
15:55
So if we go and look at this piece of content,
360
955260
4000
بنابراین اگه به این بخش از محتوا(در این فیلم) نگاه کنید،
15:59
President Obama's State of the Union address
361
959260
3000
(سخنرانی پرزیدنت اوباما درخطاب به اتحادیه ایالات
16:02
from just a few weeks ago,
362
962260
2000
درست چند هفته پیش)
16:04
and look at what we find in this same data set,
363
964260
3000
و ببیند در این مجموعه داده های یکسان چه چیزی رو پیدا می کنیم،
16:07
at the same scale,
364
967260
3000
به میزان یکسان،
16:10
the engagement properties of this piece of content
365
970260
2000
ویژگی های تعاملی این بخش از محتوا
16:12
are truly remarkable.
366
972260
2000
بسیار قابل توجه هستند.
16:14
A nation exploding in conversation
367
974260
2000
یه ملت در گفتگو حضور دارند
16:16
in real time
368
976260
2000
در یه زمان واقعی
16:18
in response to what's on the broadcast.
369
978260
3000
در پاسخ به اونچه که از تلویزیون پخش می شه.
16:21
And of course, through all of these lines
370
981260
2000
و قطعا تمام این خط ها در حال به جریان انداختن
16:23
are flowing unstructured language.
371
983260
2000
یه زبان سازمان نیافته هستند.
16:25
We can X-ray
372
985260
2000
می تونیم با اشعه ایکس
16:27
and get a real-time pulse of a nation,
373
987260
2000
نبض یک ملت رو همزمان بگیریم،
16:29
real-time sense
374
989260
2000
همزمان واکنش اجتماعی که
16:31
of the social reactions in the different circuits in the social graph
375
991260
3000
در چرخه های مختلف نمودار اجتماعی
16:34
being activated by content.
376
994260
3000
بوسیله محتوا فعال می شود رو دریابیم.
16:37
So, to summarize, the idea is this:
377
997260
3000
به طور خلاصه، ایده اینه:
16:40
As our world becomes increasingly instrumented
378
1000260
3000
هر چقدر که دنیا بیشتر به سمت ابزاری شدن پیش می ره
16:43
and we have the capabilities
379
1003260
2000
ما توانایی اینو داریم
16:45
to collect and connect the dots
380
1005260
2000
که نقاط بین اونچه که مردم می گویند
16:47
between what people are saying
381
1007260
2000
و محتوایی که در اون صحبت میکنند رو
16:49
and the context they're saying it in,
382
1009260
2000
جمع آوری کنیم و به هم مرتبط سازیم.
16:51
what's emerging is an ability
383
1011260
2000
چیزی که نمایان می شه
16:53
to see new social structures and dynamics
384
1013260
3000
ساختارهای اجتماعی و فعالیت های جدیدی است
16:56
that have previously not been seen.
385
1016260
2000
که قبلا دیده نمی شدند.
16:58
It's like building a microscope or telescope
386
1018260
2000
این درست مثل ساخت یه میکروسکوپ یا تلسکوپ است
17:00
and revealing new structures
387
1020260
2000
پرده برداشتن از ساختار های جدید
17:02
about our own behavior around communication.
388
1022260
3000
از رفتارمان در حوزه ارتباطات.
17:05
And I think the implications here are profound,
389
1025260
3000
و به نظر من مفاهیم در اینجا بسیار عمیق هستند،
17:08
whether it's for science,
390
1028260
2000
خواه برای علم باشه،
17:10
for commerce, for government,
391
1030260
2000
یا برای تجارت ،یا دولت
17:12
or perhaps most of all,
392
1032260
2000
و قطعا بالاتر از همه،
17:14
for us as individuals.
393
1034260
3000
برای ما به عنوان افراد.
17:17
And so just to return to my son,
394
1037260
3000
و برگردیم به پسرم،
17:20
when I was preparing this talk, he was looking over my shoulder,
395
1040260
3000
وقتی داشتم خودم رو برای سخنرانی آماده می کردم، از روی شونه ام داشت نگاه میکرد
17:23
and I showed him the clips I was going to show to you today,
396
1043260
2000
داشتم کلیپ هایی که امروز نشونتون دادم ، نشونش می دادم.
17:25
and I asked him for permission -- granted.
397
1045260
3000
مطمئن باشید ازش اجازه گرفتم.
17:28
And then I went on to reflect,
398
1048260
2000
و بعد بهش گفتم،
17:30
"Isn't it amazing,
399
1050260
3000
"به نظرت این هیجان آور نیست،
17:33
this entire database, all these recordings,
400
1053260
3000
که من می خوام تمام این اطلاعات رو،
17:36
I'm going to hand off to you and to your sister" --
401
1056260
2000
همه این فیلم های ضبط شده رو، به تو و خواهرت بدم، "
17:38
who arrived two years later --
402
1058260
3000
( که دوسال بعد متولد شد.)
17:41
"and you guys are going to be able to go back and re-experience moments
403
1061260
3000
و شما بچه ها میتونید به گذشته برگردید و بار دیگه لحظاتی رو تجربه کنید
17:44
that you could never, with your biological memory,
404
1064260
3000
که هرگز نمی تونید با حافظه بیولوژیکی تان،
17:47
possibly remember the way you can now?"
405
1067260
2000
اینجوری که الان می تونید، به یاد بیارید.
17:49
And he was quiet for a moment.
406
1069260
2000
برای لحظه ای ساکت موند.
17:51
And I thought, "What am I thinking?
407
1071260
2000
با خودم فکردم" به چی دارم فکر می کنم؟
17:53
He's five years old. He's not going to understand this."
408
1073260
2000
اون فقط پنج سالشه. نمی تونه اینها رو بفهمه."
17:55
And just as I was having that thought, he looked up at me and said,
409
1075260
3000
تو همین فکرا بودم که به من نگاه کرد و گفت:
17:58
"So that when I grow up,
410
1078260
2000
" پس وقتی بزرگ شدم
18:00
I can show this to my kids?"
411
1080260
2000
می تونم اینو به بچه هام نشون بدم"
18:02
And I thought, "Wow, this is powerful stuff."
412
1082260
3000
با خودم گفتم" واوو. اون خیلی می فهمه".
18:05
So I want to leave you
413
1085260
2000
بنابراین قبل از اینکه حرفم رو تموم کنم
18:07
with one last memorable moment
414
1087260
2000
شما رو با یکی از آخرین لحظات خاطره انگیز
18:09
from our family.
415
1089260
3000
از خانواده ام تنها میذارم.
18:12
This is the first time our son
416
1092260
2000
این اولین باریه که پسرمون
18:14
took more than two steps at once --
417
1094260
2000
داره بیشتر از دو قدم بر میداره
18:16
captured on film.
418
1096260
2000
فیلمش گرفته شده.
18:18
And I really want you to focus on something
419
1098260
3000
ازتون میخوام رو چیزی که می بینید
18:21
as I take you through.
420
1101260
2000
خوب تمرکز کنید.
18:23
It's a cluttered environment; it's natural life.
421
1103260
2000
خونه ریخت و پاشه، خب یه جور زندگیه.
18:25
My mother's in the kitchen, cooking,
422
1105260
2000
مامانم در آشپزخونه در حال غذا پختنه،
18:27
and, of all places, in the hallway,
423
1107260
2000
و صرفنظر از جاهای دیگه، در راهرو
18:29
I realize he's about to do it, about to take more than two steps.
424
1109260
3000
متوجه شدم که داره سعی میکنه راه بره.
18:32
And so you hear me encouraging him,
425
1112260
2000
شما صدای منو می شنوید که دارم تشویقش می کنم و
18:34
realizing what's happening,
426
1114260
2000
نشون می دم که متوجه ام چه اتفاقی داره می افته
18:36
and then the magic happens.
427
1116260
2000
اینجاست که شگفتی رخ می ده.
18:38
Listen very carefully.
428
1118260
2000
خوب گوش کنید
18:40
About three steps in,
429
1120260
2000
حدود سه قدم
18:42
he realizes something magic is happening,
430
1122260
2000
تا اون درک کنه یه چیز شگفت آور داره اتفاق می افته.
18:44
and the most amazing feedback loop of all kicks in,
431
1124260
3000
و جالب تر از همه واکنشیه که در هر قدم که برمیداره نشون میده،
18:47
and he takes a breath in,
432
1127260
2000
یه نفس می کشه و
18:49
and he whispers "wow"
433
1129260
2000
زیر لب زمزمه کنان میگه " واوو.."
18:51
and instinctively I echo back the same.
434
1131260
4000
و منم ناخودآگاهانه همونو در جواب تکرار میکنم.
18:56
And so let's fly back in time
435
1136260
3000
بریم به عقب برگردیم،
18:59
to that memorable moment.
436
1139260
2000
به اون لحظه خاطره انگیز.
19:05
(Video) DR: Hey.
437
1145260
2000
دب روی: سلام.
19:07
Come here.
438
1147260
2000
بیا اینجا
19:09
Can you do it?
439
1149260
3000
می تونی انجامش بدی؟
19:13
Oh, boy.
440
1153260
2000
بیا پسر
19:15
Can you do it?
441
1155260
3000
می تونی انجامش بدی؟
19:18
Baby: Yeah.
442
1158260
2000
بچه : آره...
19:20
DR: Ma, he's walking.
443
1160260
3000
دب روی: مامان، اون داره راه می ره.
19:24
(Laughter)
444
1164260
2000
(خندیدن حضار)
19:26
(Applause)
445
1166260
2000
(تشویق حضار)
19:28
DR: Thank you.
446
1168260
2000
متشکرم.
19:30
(Applause)
447
1170260
15000
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7