Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

یک موش. یک پرتوی لیزر. یک خاطره ی دستکاری شده.

134,222 views

2013-08-15 ・ TED


New videos

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

یک موش. یک پرتوی لیزر. یک خاطره ی دستکاری شده.

134,222 views ・ 2013-08-15

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Amirpouya Ghaemian Reviewer: narsis sh
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
استیو رَمیرِز: در اولین سال دبیرستانم،
یک روز در اتاقم نشسته بودم،
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
دائم بستنی می خوردم،
00:18
watching some trashy TV
3
18231
1660
سریال های مزخرف تلویزیون را می دیدم
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
و شاید، شاید به آهنگ های تیلور سوییفت گوش می کردم.
00:23
I had just gone through a breakup.
5
23142
1717
چون به تازگی یک شکست احساسی خورده بودم.
00:24
(Laughter)
6
24883
1423
(خنده ی حاضرین)
00:26
So for the longest time, all I would do
7
26330
2172
بنابراین برای مدت زیادی، تمام تلاشم این شده بود که
00:28
is recall the memory of this person over and over again,
8
28526
3792
بتوانم خاطره ی آن فرد را دوباره و دوباره برای خودم تکرار کنم،
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
تا شاید از آن حس مزخرفی که داشتم راحت شوم.
00:34
visceral "blah" feeling.
10
34835
2509
تا شاید از آن حس مزخرفی که داشتم راحت شوم.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
اما، همان طور که احتمالاً حدس می زنید، من یک متخصص اعصاب هستم،
00:39
so I knew that the memory of that person
12
39651
2378
و بنابراین می دانستم که خاطره ی آن فرد
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
و زمزمه های احساسی و ویران کننده ای که آن خاطره، آن ها را با خود می آورد،
00:45
are largely mediated by separate brain systems.
14
45193
2610
تا حد زیادی به واسطه ی سیستم های مختلف مغزی ایجاد می شوند.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
و من با خودم فکر کردم، کاش می توانستیم داخل مغز برویم
00:50
and edit out that nauseating feeling
16
50328
1930
و آن حس تهوع آور را حذف کنیم
00:52
but while keeping the memory of that person intact?
17
52282
2946
بدون این که به خاطره ای که از آن فرد داریم آسیبی وارد کنیم.
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
بعد با خودم گفتم، شاید این ایده برای دوره ی ما زیادی بلندپروازانه باشد.
00:57
So what if we could start off by going into the brain
19
57943
2489
اما در عوض شاید بتوانیم با رفتن داخل مغز،
01:00
and just finding a single memory to begin with?
20
60456
2609
و تنها پیدا کردن یک خاطره شروع کنیم.
01:03
Could we jump-start that memory back to life,
21
63089
2490
آیا می توانیم آن خاطره را دوباره زنده کنیم،
01:05
maybe even play with the contents of that memory?
22
65603
3844
یا شاید حتی بعضی از جزئیات آن خاطره را تغییر دهیم؟
01:09
All that said, there is one person in the entire world right now
23
69471
2205
با تمام این اوصاف، در حال حاضر یک نفر در تمام دنیا وجود دارد
01:11
that I really hope is not watching this talk.
24
71700
2143
که واقعاً امیدوارم این سخنرانی را نبیند.
01:13
(Laughter)
25
73867
3805
(خنده ی حاضرین)
01:17
So there is a catch. There is a catch.
26
77696
3265
اما مشکلی وجود دارد. یک مشکل.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
این ایده ها احتمالاً شما را یاد فیلم "یادآوری کامل" (Total Recall)
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"طلوع ابدی ذهن بی نقص" (Eternal Sunshine of the Spotless Mind)
01:25
or of "Inception."
29
85747
1279
یا "الهام" (Inception) بیندازند.
01:27
But the movie stars that we work with
30
87050
1762
اما ستاره های سینمایی که ما با آن ها کار می کنیم
01:28
are the celebrities of the lab.
31
88836
1709
در آزمایشگاه مشهور هستند.
01:30
Xu Liu: Test mice.
32
90569
1876
شو لیو: موش های آزمایشگاهی.
01:32
(Laughter)
33
92469
1104
(خنده ی حاضرین)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
به عنوان متخصصین اعصاب، ما در آزمایشگاه با موش ها کار می کنیم،
01:36
trying to understand how memory works.
35
96751
3386
تا بفهمیم نحوه ی عملکرد یک خاطره چگونه است.
01:40
And today, we hope to convince you that now
36
100161
2545
و امروز، ما امیدواریم بتوانیم شما را متقاعد کنیم
01:42
we are actually able to activate a memory in the brain
37
102730
3192
که امروزه می توانیم یک خاطره ی مشخص در ذهن را
01:45
at the speed of light.
38
105946
2146
با سرعت نور احیا کنیم.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
برای انجام این کار، تنها دو مرحله ی ساده برای انجام دادن دارید.
01:51
First, you find and label a memory in the brain,
40
111222
3486
اول از همه، خاطره را در مغز پیدا و مشخص کنید،
01:54
and then you activate it with a switch.
41
114732
3606
و سپس آن را فعال کنید.
01:58
As simple as that.
42
118362
1421
به همین سادگی.
01:59
(Laughter)
43
119807
1798
(خنده ی حاضرین)
02:01
SR: Are you convinced?
44
121629
1821
استیو: آیا متقاعد شدید؟
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
خب، ما فهمیدیم که پیدا کردن یک خاطره ی مشخص در مغز به این سادگی ها هم نیست.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
شو: البته که نیست. انجام این کار
02:09
finding a needle in a haystack,
47
129998
2380
حتی از پیدا کردن یک سوزن درون انبار کاه هم سخت تر بود،
02:12
because at least, you know, the needle is still something
48
132402
2715
زیرا حداقل، شما می دانید، سوزن چیزی است که
به صورت فیزیکی می توانید آن را با انگشتانتان بگیرید.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
اما یک خاطره این گونه نیست.
02:19
And also, there's way more cells in your brain
51
139468
3014
و علاوه بر آن، تعداد سلول های درون مغز شما،
02:22
than the number of straws in a typical haystack.
52
142506
5042
به مراتب از تعداد رشته های کاه درون یک انبار کاه معمولی بیشتر است.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
بنابراین، این کار کمی دل و جرأت می خواهد.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
اما خوشبختانه، ما از خود مغز هم کمک می گیریم.
02:34
It turned out that all we need to do is basically
55
154130
2431
بعداً فهمیدیم اساساً تمام کاری که نیاز داریم انجام بدهیم،
02:36
to let the brain form a memory,
56
156585
1969
این است که بگذاریم مغز یک خاطره را ثبت کند،
02:38
and then the brain will tell us which cells are involved
57
158578
3806
و بعد مغز به ما خواهد گفت که کدام یک از سلول ها
02:42
in that particular memory.
58
162408
1742
در آن خاطره ی مشخص دخیل بوده اند.
02:44
SR: So what was going on in my brain
59
164174
2333
استیو: اما وقتی خاطره ی عشق قبلیم در ذهنم مرور می شد،
02:46
while I was recalling the memory of an ex?
60
166531
2070
چه اتفاقی در مغز من می افتاد؟
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
اگر شما مجبور باشید برای یک لحظه تمامی اصول اخلاقی و انسانی را کنار بگذارید
02:51
and slice up my brain right now,
62
171027
1644
و همین الآن مغز من را تکه تکه کنید،
02:52
you would see that there was an amazing number
63
172695
2191
خواهید دید که مناطق بی شماری در مغز من وجود دارند
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
که با به یاد آوردن آن خاطره فعال می شوند.
02:57
Now one brain region that would be robustly active
65
177891
2888
اما به طور معمول یک منطقه ی مغزی به طور جدی فعال خواهد شد
03:00
in particular is called the hippocampus,
66
180803
1983
که هیپوکامپوس نامیده می شود،
03:02
which for decades has been implicated in processing
67
182810
2431
و به مدت ده ها سال به عنوان بخشی تلقی می شد
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
که خاطراتی را که برای ما عزیز هستند حفظ می کنند،
03:07
which also makes it an ideal target to go into
69
187681
2550
که دانستن این موضوع باعث می شد این بخش از مغز، هدفی ایده آل
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
برای بررسی و تلاش برای پیدا کردن یک خاطره در آن و شاید باز-فعال سازی آن باشد.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
شو: اگر هیپوکامپوس را با دقت بررسی کنید،
03:15
of course you will see lots of cells,
72
195434
2324
مطمئناً سلول های بی شماری را می بینید،
03:17
but we are able to find which cells are involved
73
197782
3007
ولی ما می توانیم بفهمیم کدام یک از سلول ها،
03:20
in a particular memory,
74
200813
1452
در جریان یک خاطره ی به خصوص فعال می شوند،
03:22
because whenever a cell is active,
75
202289
2594
زیرا هر گاه سلولی فعال می شود،
03:24
like when it's forming a memory,
76
204907
1524
مثلاً وقتی که یک خاطره را ثبت می کند،
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
اثری باقی می گذارد که بعداً به ما اجازه می دهد که بفهمیم،
03:30
these cells are recently active.
78
210128
2678
این سلول ها پیش از این فعال بوده اند.
03:32
SR: So the same way that building lights at night
79
212830
2334
استیو: بنابراین همان طور که از روی چراغ ساختمان ها در شب
می توانید بفهمید که در آن زمان مشخص شاید یک نفر دارد در آن جا کار می کند،
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
در واقعیت، سنسور های بیولوژیکی درون سلول ها وجود دارند،
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
در واقعیت، سنسور های بیولوژیکی درون سلول ها وجود دارند،
03:43
only when that cell was just working.
83
223180
2111
که هر گاه سلول فعالیت می کند روشن می شود.
03:45
They're sort of biological windows that light up
84
225315
2286
آن ها نوعی پنجره ی بیولوژیکی هستند که روشن می شوند
03:47
to let us know that that cell was just active.
85
227625
2191
تا ما بفهمیم که آن سلول به تازگی فعال شده است.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
شو: بنابراین ما بخشی از این سنسور را بریدیم،
03:51
and attached that to a switch to control the cells,
87
231998
3123
و آن را به یک کلید متصل کردیم تا سلول ها را کنترل کنیم،
03:55
and we packed this switch into an engineered virus
88
235145
3876
و این کلید را در یک ویروس مهندسی شده قرار دادیم
03:59
and injected that into the brain of the mice.
89
239045
2564
و آن ویروس را درون مغز یک موش تزریق کردیم.
04:01
So whenever a memory is being formed,
90
241633
2610
بنابراین هر وقت یک خاطره ثبت می شود،
04:04
any active cells for that memory
91
244267
2324
تمام سلول های فعال مربوط به آن خاطره
04:06
will also have this switch installed.
92
246615
2718
این کلید را بر روی خود نصب می کنند.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
استیو: به طور مثال، هیپوکامپوس بعد از ثبت یک خاطره ی ترسناک، تقریباً این شکلی است.
استیو: به طور مثال، هیپوکامپوس بعد از ثبت یک خاطره ی ترسناک، تقریباً این شکلی است.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
قسمت آبی که در این جا می بینید،
04:15
are densely packed brain cells,
96
255962
1928
مجموعه ی فشرده ی سلول های مغزی است،
04:17
but the green brain cells,
97
257914
1521
اما سلول های سبز رنگ مغز،
04:19
the green brain cells are the ones that are holding on
98
259459
2572
وظیفه ی ثبت یک خاطره ی ترسناک به خصوص را بر عهده دارند.
وظیفه ی ثبت یک خاطره ی ترسناک به خصوص را بر عهده دارند.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
بنابراین شما دارید به یک آن از تشکیل آرایش ترس نگاه می کنید.
04:25
of the fleeting formation of fear.
101
265377
2363
بنابراین شما دارید به یک آن از تشکیل آرایش ترس نگاه می کنید.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
شما دارید به شمای نیمرخ یک خاطره نگاه می کنید.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
شو: الآن، برای کلیدی که درباره اش صحبت کرده بودیم،
04:33
ideally, the switch has to act really fast.
104
273714
2901
بطور ایده آل، این کلید باید با سرعت تمام واکنش نشان دهد.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
سرعت واکنش آن نباید چند دقیقه یا چند ساعت باشد.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
این کلید باید با سرعت مغز، یعنی چند میلی ثانیه واکنش نشان دهد.
04:43
SR: So what do you think, Xu?
107
283482
1406
استیو: شو، نظرت چیست؟
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
آیا ما می توانیم، به طور مثال، از دارو های متداول استفاده کنیم،
04:47
to activate or inactivate brain cells?
109
287514
1814
تا سلول های مغز خودمان را فعال یا غیر فعال کنیم؟
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
شو: نه. دارو ها خیلی نامتمرکز عمل می کنند. آن ها همه جای بدن پخش می شوند.
04:53
And also it takes them forever to act on cells.
111
293415
2984
و وقت زیادی می خواهد تا آن ها روی سلول ها عمل کنند.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
پس با دارو ها نمی توانیم یک خاطره را بلافاصله کنترل کنیم.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
خب استیو، نظرت در مورد پاک کردن مغز به کمک الکتریسیته چیه؟
05:04
SR: So electricity is pretty fast,
114
304366
2281
استیو: الکتریسیته خیلی سریعه،
05:06
but we probably wouldn't be able to target it
115
306671
1715
ولی احتمالاً ما ثادر نخواهیم بود تا به وسیله ی آن،
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
فقط سلول های مشخصی که یک خاطره را نگه می دارند را هدف بگیریم،
05:10
and we'd probably fry the brain.
117
310863
1755
و این احتمال هم وجود داشت که مغز را بسوزانیم.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
شو: اوه. درسته. پس باید، ممم ...
05:15
indeed we need to find a better way
119
315837
2587
راه بهتری پیدا می کردیم
05:18
to impact the brain at the speed of light.
120
318448
3271
تا بتوانیم مغز را با سرعت نور تحت تأثیر قرار دهیم.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
استیو: ما به این نتیجه رسیدیم که تنها نور است که با سرعت نور حرکت می کند.
05:26
So maybe we could activate or inactive memories
122
326829
3459
بنابراین شاید ما بتوانیم خاطره ها را به وسیله ی نور،
05:30
by just using light --
123
330312
1473
فعال یا غیر فعال کنیم --
05:31
XL: That's pretty fast.
124
331809
1331
شو: نور خیلی سریع است.
05:33
SR: -- and because normally brain cells
125
333164
1861
استیو: -- و چون سلول های مغزی
05:35
don't respond to pulses of light,
126
335049
1572
به طور معمول به پالس های نوری واکنش نشان نمی دهند،
05:36
so those that would respond to pulses of light
127
336645
1934
بنابراین آن سلول هایی که به پالس های نوری واکنش نشان می دهند
05:38
are those that contain a light-sensitive switch.
128
338603
2432
آن هایی هستند که کلید حساس به نور دارند.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
اما برای این کار، ابتدا ما باید سلول های مغزی را گول بزنیم،
05:43
to respond to laser beams.
130
343005
1438
تا به پرتو های لیزر واکنش نشان بدهند.
05:44
XL: Yep. You heard it right.
131
344467
1046
شو: دقیقاً. درست شنیدید.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
ما تلاش می کنیم به مغز پرتو های لیزر شلیک کنیم.
05:47
(Laughter)
133
347704
1686
(خنده ی حاضرین)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
استیو: و تکنیکی که به ما اجازه می دهد که این کار را انجام بدهیم، آپتوژنتیک است (تأثیر نور بر روی ژن ها).
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
به کمک آپتوژنتیک ما می توانیم این کلید های حساس به نور را بسازیم،
05:56
to turn brain cells on or off,
136
356020
1484
که به کمک آن ها می توانیم سلول های مغزی را خاموش یا روشن کنیم،
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
و نام آن کلید چنلرودوپسین است،
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
و در این جا به شکل دانه های سبز چسبیده به این سلول مغزی دیده می شوند.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
شما می توانید چنلرودوپسین را به صورت یک کلید حساس به نور تصور کنید،
06:05
that can be artificially installed in brain cells
140
365892
2592
که می تواند به صورت مصنوعی بر روی سلول های مغزی نصب شود،
06:08
so that now we can use that switch
141
368508
1890
و ما می توانیم خیلی ساده با کلیک کردن بر روی آن کلید،
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
برای فعال یا غیرفعال کردن سلول مغزی استفاده کنیم،
06:13
and in this case we click it on with pulses of light.
143
373446
2524
و در این مورد خاص با پالس های نوری آن را فعال می کنیم.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
ژو: پس ما این کلید حساس به نور چنلرودوپسین را
06:19
to the sensor we've been talking about
145
379689
2184
به سنسوری که درباره اش صحبت کردیم وصل کردیم
06:21
and inject this into the brain.
146
381897
2431
و آن را به مغز تزریق کردیم.
06:24
So whenever a memory is being formed,
147
384352
3187
بنابراین هر وقت یک خاطره ثبت می شود،
06:27
any active cell for that particular memory
148
387563
2203
تمام سلول های فعال مربوط به آن خاطره ی مشخص
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
این کلید های حساس به نور را نیز به درون خود می برند
06:33
so that we can control these cells
150
393274
2377
و از این طریق ما می توانیم این سلول ها را
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
همان طور که می بینید، با تابش آنی پرتوی لیزر کنترل کنیم.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
استیو: اجازه بدهید آزمایشی با تمام این اوصاف انجام بدهیم.
06:42
What we can do is we can take our mice
153
402803
2111
کاری که می توانیم انجام بدهیم این است که موش هایمان را
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
درون یک جعبه دقیقاً مثل این جعبه قرار دهیم،
06:47
and then we can give them a very mild foot shock
155
407866
2316
و بعد می توانیم به آن ها یک شوک بسیار خفیف بدهیم
06:50
so that they form a fear memory of this box.
156
410206
2048
تا آن ها خاطره ی ترسناکی را درون این جعبه ثبت کنند.
06:52
They learn that something bad happened here.
157
412278
2059
آن ها می آموزند که اتفاق بدی این جا افتاده است.
06:54
Now with our system, the cells that are active
158
414361
2318
حالا با سیستم خودمان، تنها سلول هایی که در بخش هیپوکامپوس
06:56
in the hippocampus in the making of this memory,
159
416703
2766
در ثبت این خاطره فعال بوده اند،
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
حاوی چنلرودوپسین خواهند بود.
07:02
XL: When you are as small as a mouse,
161
422376
2993
شو: اگر شما یک موش کوچک باشید،
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
فکر می کنید تمام دنیا سعی می کنند شما را بگیرند.
07:08
So your best response of defense
163
428988
1724
بنابراین بهترین واکنش دفاعی شما،
07:10
is trying to be undetected.
164
430736
2458
تلاش برای دیده نشدن است.
07:13
Whenever a mouse is in fear,
165
433218
2009
وقتی که یک موش می ترسد،
07:15
it will show this very typical behavior
166
435251
1858
یک رفتار کاملاً متداول انجام می دهد:
در یک گوشه ی جعبه می ماند،
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
و سعی می کند که هیچ کدام از اعضای بدنش را تکان ندهد،
07:21
and this posture is called freezing.
169
441664
3271
و ما به این حالت انجماد می گوییم.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
بنابراین اگر یک موش خاطره ی بدی را درون این جعبه به یاد بیاورد،
07:29
and when we put them back into the same box,
171
449253
2599
وقتی که او را دوباره در جعبه ی مشابهی قرار دهیم،
07:31
it will basically show freezing
172
451876
1780
او به طور خیلی ساده در حالت انجماد قرار خواهد گرفت،
07:33
because it doesn't want to be detected
173
453680
2261
زیرا او نمی خواهد توسط هیچ خطر احتمالی درون آن جعبه دیده شود.
07:35
by any potential threats in this box.
174
455965
2671
زیرا او نمی خواهد توسط هیچ خطر احتمالی درون آن جعبه دیده شود.
07:38
SR: So you can think of freezing as,
175
458660
1331
استیو: برای درک حالت انجماد،
07:40
you're walking down the street minding your own business,
176
460015
2191
تصور کنید دارید در خیابان راه می روید، و به کار های خودتان فکر می کنید،
07:42
and then out of nowhere you almost run into
177
462230
2048
و ناگهان دوست دختر یا دوست پسر سابق خود را می بینید.
و ناگهان دوست دختر یا دوست پسر سابق خود را می بینید.
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
و اما آن دو ثانیه ی ترسناک،
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
زمانی است که شما با خود فکر می کنید، "چه کار کنم؟ سلام کنم؟
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
با او دست بدهم؟ برگردم و فرار کنم؟
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
همین جا بنشینم و وانمود کنم وجود ندارم؟"
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
و از این گونه افکار ناگهانی که بدن شما را بی حرکت می کند،
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
و باعث می شود قیافه ی وحشت زده ای پیدا کنید.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
شو: اگرچه، اگر آن موش را درون جعبه ی کاملاً متفاوتی قرار دهید،
08:02
new box, like the next one,
186
482775
3137
مثل این جعبه ی بعدی،
08:05
it will not be afraid of this box
187
485936
2123
او از این جعبه نخواهد ترسید،
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
زیرا هیچ دلیلی وجود ندارد که او از این محیط جدید بترسد.
08:12
But what if we put the mouse in this new box
189
492812
3156
اما اگر ما موش را در این جعبه ی جدید قرار دهیم
08:15
but at the same time, we activate the fear memory
190
495992
3587
ولی هم زمان، خاطره ی ترس را به وسیله ی لیزر هایی که پیش از این
08:19
using lasers just like we did before?
191
499603
2655
با آن ها کار کردیم فعال کنیم، چه اتفاقی می افتد؟
08:22
Are we going to bring back the fear memory
192
502282
2830
آیا ما خاطره ی ترس اولین جعبه را به این محیط کاملاً جدید خواهیم آورد؟
08:25
for the first box into this completely new environment?
193
505136
3973
آیا ما خاطره ی ترس اولین جعبه را به این محیط کاملاً جدید خواهیم آورد؟
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
استیو: خیلی خب، و این آزمایش میلیون دلاری ما است.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
اما برای برگشتن به خاطره ی آن روز،
08:34
I remember that the Red Sox had just won,
196
514781
2159
یادم می آید که تیم بیسبال "رد ساکس" تازه برده بود،
08:36
it was a green spring day,
197
516964
1885
یک روز سبز بهاری بود،
08:38
perfect for going up and down the river
198
518873
1858
و جان می داد برای گشتن اطراف رودخانه
08:40
and then maybe going to the North End
199
520755
2245
و شاید بعد رفتن به شمال شهر،
08:43
to get some cannolis, #justsaying.
200
523024
2135
برای خوردن کمی رولت خامه ای، و گذاشتن استاتوس در فیس بوک و توییتر.
08:45
Now Xu and I, on the other hand,
201
525183
3078
اما شو و من، از طرف دیگر،
08:48
were in a completely windowless black room
202
528285
2806
در یک اتاق سیاه بدون پنجره بودیم
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
و حتی چشممان را آن قدر حرکت نمی دادیم که منجر به پلک زدن شود،
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
زیرا چشم های ما روی صفحه ی کامپیوتر خیره مانده بود.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
ما به این موش در این جا که تلاش می کرد یک خاطره را
برای اولین بار با استفاده از تکنولوژی ما احیا کند خیره شده بودیم.
09:00
for the first time using our technique.
206
540219
1859
شو: و این چیزی بود که ما دیدیم.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
وقتی برای اولین بار ما موش را درون ای جعبه قرار دادیم،
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
او دور جعبه می گشت، اطراف را بو می کرد و قدم می زد،
09:09
minding its own business,
210
549684
1665
و به محیط اطرافش فکر می کرد،
09:11
because actually by nature,
211
551373
1677
زیرا به طور ذاتی،
09:13
mice are pretty curious animals.
212
553074
1955
موش ها موجودات خیلی کنجکاوی هستند.
09:15
They want to know, what's going on in this new box?
213
555053
2598
آن ها می خواهند بدانند، درون این جعبه ی جدید چه خبر است؟
09:17
It's interesting.
214
557675
1507
برایشان جالب است.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
ولی وقتی ما لیزر را روشن کردیم، همان طور که می بینید،
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
ناگهان موش وارد حالت انجماد شد.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
او آن جا ماند و سعی نکرد هیچ کدام از اعضای بدنش را حرکت دهد.
09:30
Clearly it's freezing.
218
570120
1604
او به طور واضح منجمد شده است.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
و البته، به نظر می رسد ما می توانیم
09:34
the fear memory for the first box
220
574331
2040
خاطره ی ترس جعبه ی اول را
09:36
in this completely new environment.
221
576395
3343
نسبت به این محیط کاملاً جدید به او القا کنیم.
09:39
While watching this, Steve and I
222
579762
2088
وقتی این را دیدیم، استیو و من
09:41
are as shocked as the mouse itself.
223
581874
2109
به اندازه ی خود آن موش متعجب بودیم.
09:44
(Laughter)
224
584007
1238
(خنده ی حاضرین)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
بنابراین پس از آزمایش، هر دوی ما اتاق را ترک کردیم
09:48
without saying anything.
226
588576
1729
بدون این که چیزی بگوییم.
09:50
After a kind of long, awkward period of time,
227
590329
3372
بعد از مدتی طولانی و سخت،
09:53
Steve broke the silence.
228
593725
2188
استیو سکوت را شکست.
09:55
SR: "Did that just work?"
229
595937
2317
استیو: "آیا این ایده واقعاً کار کرد؟"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
شو: گفتم، "بله، البته که کار کرد!"
10:01
We're really excited about this.
231
601252
2093
ما واقعاً در مورد آن هیجان زده بودیم.
10:03
And then we published our findings
232
603369
2600
و سپس ما یافته هایمان را
10:05
in the journal Nature.
233
605993
1672
در مجله ی "طبیعت" (Nature) چاپ کردیم.
10:07
Ever since the publication of our work,
234
607689
2447
حتی بعد از چاپ کارمان،
10:10
we've been receiving numerous comments
235
610160
2391
ما نظرات بی شماری را از سر تا سر اینترنت دریافت کردیم.
10:12
from all over the Internet.
236
612575
2101
ما نظرات بی شماری را از سر تا سر اینترنت دریافت کردیم.
10:14
Maybe we can take a look at some of those.
237
614700
3726
شاید ما بتوانیم نگاهی به بعضی از آن ها بیندازیم.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
["اوه خدای من.... پس به زودی باید انتظار چیز های بیشتری را داشت، حقیقت مجازی، کنترل عصبی، شبیه سازی رؤیای تصویری... کد نویسی عصبی، "نوشتن و بازنویسی خاطرات"، بیماری های ذهنی. واییییییی آینده فوق العاده است !"]
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
استیو: اولین چیزی که شما از واکنش این افراد متوجه خواهید شد
10:22
have really strong opinions about this kind of work.
240
622907
2879
این است که آن ها آن ها نسبت به کار ما باوری قوی دارند.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
من کاملاً با خوش بینی نظر اول موافق هستم،
10:28
of this first quote,
242
628364
792
من کاملاً با خوش بینی نظر اول موافق هستم،
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
زیرا تقریباً می توان با اطمینان گفت بعد از صدای مورگان فریمن (بازیگر سینما با صدایی رسا)،
10:31
it happens to be one of the most evocative accolades
244
631988
2477
دستگاه ما یکی از بهترین سیستم های احیاگر خاطرات است،
10:34
that I've heard come our way.
245
634489
1526
که تا به حال به دست انسان ساخته شده است.
(خنده ی حاضرین)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
اما خواهید دید، این تنها نظری نیست که وجود دارد.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
["این دستگاه خیلی مرا ترساند ... اگر آن ها بتوانند این کار را به آسانی به مدت چند سال به روی انسان ها انجام دهند چه؟! خدایا ما نابود شدیم"]
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
شو: البته، اگر ما یک لحظه به این قضیه فکر کنیم،
10:43
I think we can all agree that it's, meh,
250
643682
2083
به نظرم می توانیم با او کاملاً موافقت کنیم که این، مممم، درست است،
10:45
probably not as positive.
251
645789
1959
اما شاید نه تا این حد.
10:47
But this also reminds us that,
252
647772
2161
اما این اگرچه به یاد ما می آورد که،
10:49
although we are still working with mice,
253
649957
2162
اگرچه ما همچنان بر روی موش ها کار می کنیم،
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
اما شاید این کار درستی باشد که در مورد پیامد های اخلاقی کنترل خاطرات
10:55
about the possible ethical ramifications
255
655660
2967
اما شاید این کار درستی باشد که در مورد پیامد های اخلاقی کنترل خاطرات
10:58
of memory control.
256
658651
1924
به بحث و گفت و گو بنشینیم.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
استیو: اما، در بطن نظر سوم،
11:02
we want to tell you about a recent project that we've been
258
662799
1950
می خواهیم به شما درباره ی پروژه ای به نام پروژه ی به نام پروژه ی الهام (Inception)
11:04
working on in lab that we've called Project Inception.
259
664773
2572
که اخیراً در آزمایشگاه بر روی آن کار می کنیم، بگوییم.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
["آن ها باید فیلمی در این باره بسازند. جایی که آن ها ایده ها را در ذهن مردم می گذارند، تا آن ها بتوانند مردم را برای منافع خودشان کنترل کنند. ما به آن خواهیم گفت: الهام (Inception)"]
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
ما به این فکر افتادیم که که اگر ما در حال حاضر می توانیم یک خاطره را باز-فعال کنیم،
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
اگر ما همین کار را، اما با کمی دستکاری درون آن خاطره انجام دهیم، چه اتفاق می افتد؟
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
آیا ما می توانیم حتی آن را به یک خاطره ی ساختگی تبدیل کنیم؟
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
شو: بنابراین یک خاطره به طور کلی پیچیده و پویاست،
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
اما به طور ساده، اجازه بدهید آن را به صورت
11:27
as a movie clip.
266
687241
1378
یک کلیپ ویدئویی تصور کنیم.
11:28
So far what we've told you is basically we can control
267
688643
2646
تا به حال هر چه به شما گفته ایم به طور ساده این بوده است که
11:31
this "play" button of the clip
268
691313
1907
ما می توانیم این دکمه ی "پخش" کلیپ ویدئویی را کنترل کنیم
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
بنابراین می توانیم این کلیپ ویدئویی را همه جا و همه وقت پخش کنیم.
11:37
But is there a possibility that we can actually get
270
697829
2507
اما آیا این امکان وجود دارد که ما بتوانیم
11:40
inside the brain and edit this movie clip
271
700360
2836
به داخل مغز برویم و این کلیپ ویدئویی را ویرایش کنیم
11:43
so that we can make it different from the original?
272
703220
2872
تا آن را نسبت به کلیپ اصلی تغییر دهیم؟
11:46
Yes we can.
273
706116
2154
بله، می توانیم.
11:48
Turned out that all we need to do is basically
274
708294
2191
ما فهمیدیم که کاری که نیاز داریم انجام دهیم
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
این است که مثل قبل با استفاده از لیزر هایمان یک خاطره را باز-فعال سازی کنیم،
11:54
but at the same time, if we present new information
276
714699
3415
اما هم زمان، اگر اطلاعات تازه را به آن موجود ارائه دهیم
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
و اجازه بدهیم این اطلاعات جدید در آن خاطره ی قدیمی دخیل شوند،
12:02
this will change the memory.
278
722112
2414
این کار خاطره را تغییر می دهد.
12:04
It's sort of like making a remix tape.
279
724550
3639
این کار مثل درست کردن یک نوار از موسیقی های منتخب است.
12:08
SR: So how do we do this?
280
728213
2834
استیو: اما چطور این کار را انجام دهیم؟
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
به جای پیدا کردن یک خاطره ی ترسناک درون مغز،
12:13
we can start by taking our animals,
282
733028
1692
می توانیم حیوانات آزمایشی خود را،
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
به طور مثال درون یک جعبه ی آبی مثل این قرار دهیم
12:17
and we find the brain cells that represent that blue box
284
737721
2623
و بفهمیم که کدام سلول های مغزی آن جعبه ی آبی را ثبت می کنند
12:20
and we trick them to respond to pulses of light
285
740368
2239
و آن ها را تحریک کنیم تا به پالس های نوری پاسخ بدهند
12:22
exactly like we had said before.
286
742631
1710
دقیقاً همان طور که پیش از این گفته ایم.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
و اما روز بعد، ما می توانیم حیوانات آزمایشی خودمان را
12:26
in a red box that they've never experienced before.
288
746489
2675
درون جعبه ی قرمزی که هرگز پیش از این ندیده اند قرار دهیم.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
سپس لیزر را به مغز آن ها بتابانیم
12:31
the memory of the blue box.
290
751451
1848
تا خاطره ی جعبه ی آبی را دوباره احیا کنیم.
12:33
So what would happen here if, while the animal
291
753323
1720
اما چه اتفاقی می افتد اگر، وقتی که آن حیوان
12:35
is recalling the memory of the blue box,
292
755067
1905
خاطره ی جعبه ی آبی را مرور می کند،
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
ما به او چند شوک خفیف بدهیم؟
12:39
So here we're trying to artificially make an association
294
759604
2669
بنابراین ما این جا تلاش می کنیم تا به طور مصنوعی
12:42
between the memory of the blue box
295
762297
1891
رابطه ای بین خاطره ی جعبه ی آبی
12:44
and the foot shocks themselves.
296
764212
1479
و خود شوک های خفیف برقرار کنیم.
12:45
We're just trying to connect the two.
297
765715
1762
ما تنها تلاش می کنیم که به نحوی این دو را به هم متصل سازیم.
12:47
So to test if we had done so,
298
767501
1512
بنابراین برای این که مطمئن شویم که آیا ما چنین کاری را انجام داده ایم یا نه،
12:49
we can take our animals once again
299
769037
1304
می توانیم حیواناتمان را یک بار دیگر
12:50
and place them back in the blue box.
300
770365
1922
به جعبه ی آبی برگردانیم.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
ما خاطره ی جعبه ی آبی را، هم زمان با دادن چند شوک خفیف به حیوان
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
برای او زنده کرده بودیم،
12:57
and now the animal suddenly freezes.
303
777455
2107
و حالا آن حیوان ناگهان به حالت انجماد می رود.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
این تقریباً مثل آن است که او به یاد می آورد که پیش از این او در این محیط به طور خفیف دچار شوک شده است
13:02
even though that never actually happened.
305
782944
2822
حتی اگر در حقیقت هیچ وقت این اتفاق نیفتاده باشد.
13:05
So it formed a false memory,
306
785790
1838
بنابراین ما یک خاطره ی ساختگی را ثبت کرده ایم،
13:07
because it's falsely fearing an environment
307
787652
2048
زیرا او به اشتباه از محیطی می ترسد
13:09
where, technically speaking,
308
789724
1334
که به طور تکنیکی،
هیچ اتفاق بدی در آن جا نیفتاده است.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
شو: خب، تا به این جا ما تنها درباره ی فعال کردن این کلید حساس به نور صحبت کرده ایم.
13:15
this light-controlled "on" switch.
311
795719
2342
شو: خب، تا به این جا ما تنها درباره ی زدن این کلید فعال کننده ی حساس به نور صحبت کرده ایم.
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
در حقیقت، ما یک کلید غیر فعال کننده ی حساس به نور هم داریم،
13:21
and it's very easy to imagine that
313
801373
2056
و به راحتی می توان تصور کرد
13:23
by installing this light-controlled "off" switch,
314
803453
2454
که با نصب این این کلید غیر فعال کننده ی حساس به نور،
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
ما می توانیم همه جا و همه وقت، یک خاطره ی مشخص را غیر فعال کنیم.
13:31
So everything we've been talking about today
316
811519
2190
بنابراین همه ی چیز هایی که امروز راجع به آن ها حرف زده ایم
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
بر پایه ی این اصل فلسفی از اعصاب شناسی است که ذهن،
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
با تمامی رفتار ها و خواص ظاهراً راز آلودش،
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
در حقیقت از مواد فیزیکی ساخته شده است که ما می توانیم آن ها را دستکاری کنیم.
13:46
SR: And for me personally,
320
826173
1451
استیو: و خود من به شخصه،
13:47
I see a world where we can reactivate
321
827648
1762
جهانی را می بینم که ما در آن می توانیم
13:49
any kind of memory that we'd like.
322
829434
1887
هر خاطره ای را که می خواهیم فعال کنیم.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
من جهانی را می بینم که ما می توانیم تمامی خاطرات ناخواسته را در آن حذف کنیم.
13:54
Now, I even see a world where editing memories
324
834643
2143
من حتی جهانی را می بینم که در آن ویرایش کردن خاطرات
13:56
is something of a reality,
325
836810
1284
به حقیقت می پیوندد.
13:58
because we're living in a time where it's possible
326
838118
1681
زیرا ما در عصری زندگی می کنیم که در آن
13:59
to pluck questions from the tree of science fiction
327
839823
2429
چیدن پرسش ها از درخت تخیل
14:02
and to ground them in experimental reality.
328
842276
2168
و فرود آمدن آنها در حقیقت تجربی امکان پذیر است.
14:04
XL: Nowadays, people in the lab
329
844468
1859
شو: امروزه، متخصصین در آزمایشگاه ها
14:06
and people in other groups all over the world
330
846351
2362
و انسان های دیگر در سراسر جهان
14:08
are using similar methods to activate or edit memories,
331
848737
3793
از روش های مشابهی برای فعال کردن یا ویرایش خاطرات استفاده می کنند،
14:12
whether that's old or new, positive or negative,
332
852554
3817
خاطرات قدیمی یا جدید، مثبت یا منفی،
14:16
all sorts of memories so that we can understand
333
856395
2648
و انواع خاطراتی که ما می توانیم
14:19
how memory works.
334
859067
1840
به کمک آن ها بفهمیم حافظه چطور کار می کند.
14:20
SR: For example, one group in our lab
335
860931
1760
استیو: به طور مثال، یک گروه در آزمایشگاه ما
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
توانست سلول های مغزی را پیدا کند که یک خاطره ی ترس مشخص را ایجاد می کنند،
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
و آن ها را به سادگی به یک خاطره ی لذت بخش تبدیل کرد.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
این دقیقاً مصداق بارز ویرایش این گونه فرایند های ذهنی است.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
یکی از دوستان ما در آزمایشگاه حتی توانست
14:33
memories of female mice in male mice,
340
873558
1921
خاطرات موش های ماده را در ذهن موش های نر یاز-فعال سازی کند،
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
به طوری که آن ها یک تجربه ی لذت بخش داشتند.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
شو: به راستی، ما در عصر هیجان انگیزی زندگی می کنیم
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
که دانش هیچ محدودیت سرعت آزاردهنده ای ندارد
14:46
but is only bound by our own imagination.
344
886420
3163
و تنها محدودیت ما قوه ی تخیل خودمان است.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
استیو: و نهایتاً، ما از این ایده چه چیزی به دست می آوریم؟
14:51
How do we push this technology forward?
346
891774
1927
ما چگونه می توانیم این تکنولوژی را پیشرفته تر کنیم؟
14:53
These are the questions that should not remain
347
893725
2191
این ها پرسش هایی هستند که نباید تنها در آزمایشگاه مطرح شوند،
14:55
just inside the lab,
348
895940
1273
این ها پرسش هایی هستند که نباید تنها در آزمایشگاه مطرح شوند،
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
و تنها هدف سخنرانی امروز
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
رساندن همه به بالا ترین سرعت ممکن با تجهیزات حاضر در اعصاب شناسی نوین بود،
15:02
in modern neuroscience,
351
902238
1250
رساندن همه به بالا ترین سرعت ممکن با تجهیزات حاضر در اعصاب شناسی نوین بود،
15:03
but now, just as importantly,
352
903512
1486
اما حالا، با همان اهمیت،
15:05
to actively engage everybody in this conversation.
353
905022
3308
درگیر کردن فعالانه ی همه در این مبحث.
15:08
So let's think together as a team about what this all means
354
908354
2762
پس اجازه بدهید مثل یک تیم با یکدیگر درباره ی مفهوم آن
و سطحی که ما توانایی آن را داریم و این تکنولوژی شایستگی آن را دارد فکر کنیم،
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
زیرا شو و من معتقدیم همگی ما
15:15
some really big decisions ahead of us.
357
915255
2512
تصمیمات بسیار بزرگی را پیش رو داریم.
15:17
Thank you. XL: Thank you.
358
917791
1101
متشکرم. شو: متشکرم.
15:18
(Applause)
359
918916
1634
(تشویق حاضرین)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7