Your Right to Mental Privacy in the Age of Brain-Sensing Tech | Nita Farahany | TED

60,753 views ・ 2023-05-30

TED


Please double-click on the English subtitles below to play the video.

Prevodilac: Strahinja Tomic Lektor: Milenka Okuka
00:04
Today, we know and track virtually nothing that’s happening in our own brains.
0
4125
6757
Данас не знамо, нити пратимо готово ништа што се дешава у нашим мозговима.
00:11
But in a future that is coming much faster than you realize,
1
11341
4004
Међутим, у будућности која галопом долази, све ће се то променити.
00:15
all of that is about to change.
2
15387
2919
00:18
We're now familiar with sensors in our smart watches to our rings,
3
18306
4129
Сви смо упознати са сензорима у нашим паметним сатовима и прстеновима,
00:22
that track everything from our heartbeats to our footsteps, breaths,
4
22477
5005
који прате откуцаје срца, број корака,
удисаја, телесну температуру, па чак и наш сан.
00:27
body temperature, even our sleep.
5
27524
2002
00:29
Now, consumer neurotech devices are being sold worldwide
6
29943
4254
Сад, комерцијална неуротехнологија се продаје широм света
00:34
to enable us to track our own brain activity.
7
34239
3420
и омогућава нам да пратимо сопствену мождану активност.
00:38
As companies from Meta to Microsoft,
8
38034
3712
Компаније попут Мете и Мајкрософта, до Снепа, па чак и Епла,
00:41
Snap and even Apple
9
41788
1877
00:43
begin to embed brain sensors in our everyday devices
10
43665
3337
почињу да уграђују мождане сензоре у уређаје које свакодневно користимо,
00:47
like our earbuds, headphones, headbands, watches and even wearable tattoos,
11
47002
6715
попут слушалица, сатова, трака за косу, па чак и паметних тетоважа.
00:53
we're reaching an inflection point in brain transparency.
12
53717
4296
Приближавамо се преломној тачки наше мождане транспарентности.
00:58
And those are just some of the company names we're familiar with.
13
58013
3086
И ово су само неке компаније које су нам познате. Постоје још многе друге.
01:01
There are so many more.
14
61099
1168
01:02
Consumer neurotech devices are moving from niche products
15
62309
3253
Комерцијална неуротехнологија излази из уских ниша са ограниченом примењивошћу
01:05
with limited applications
16
65604
1793
01:07
to becoming the way in which we'll learn about our own brain activity,
17
67397
3795
и постаје начин на који сазнајемо о нашим можданим активностима,
01:11
our controller for virtual reality and augmented reality.
18
71192
3629
то је наша командна табла виртуелне и проширене реалности,
01:14
And one of the primary ways we'll interact
19
74863
2586
и један од главних начина интеракције са остатком наше технологије.
01:17
with all of the rest of our technology.
20
77490
2419
01:20
Even conservative estimates of the neurotech industry
21
80410
3337
Чак и конзервативне процене стављају индустрију неуротхенологије
01:23
put it at more than 38 billion dollars by 2032.
22
83788
4171
на преко 38 милијарди долара годишње до 2032. године.
01:28
This new category of technology presents unprecedented possibility,
23
88668
5214
Ова нова категорија технологије пружа могућности без преседана,
01:33
both good and bad.
24
93923
2169
како добре тако и лоше.
01:36
Consider how our physical health and well-being are increasing
25
96509
3671
Размислите како се наше физичко здравље и благостање стално повећава,
01:40
while neurological disease and suffering continue to rise.
26
100180
3587
док су неуролошке болести и патња у сталном порасту.
01:44
55 million people around the world are struggling with dementia,
27
104267
4588
Широм света, 55 милиона људи се бори са деменцијом,
01:48
with more than 60 to 70 percent of them suffering from Alzheimer's disease.
28
108855
4505
а 60 до 70 процената њих болује од Алцхајмера.
01:53
Nearly a billion people struggle with mental health
29
113860
3170
Скоро милијарду људи се бори са менталним здрављем и употребом наркотика.
01:57
and drug use disorders.
30
117072
1918
01:59
Depression affects more than 300 million.
31
119032
3754
Депресија погађа преко 300 милиона људи.
02:02
Consumer neurotech devices could finally enable us
32
122827
2878
Комерцијална неуротехнологија би нам могла омогућити
02:05
to treat our brain health and wellness
33
125747
2794
да се посветимо здрављу и благостању мозга
02:08
as seriously as we treat the rest of our physical well-being.
34
128583
3295
једнако озбиљно као што то радимо са остатком нашег физичког благостања.
02:13
But making our brains transparent to others
35
133463
3378
Али дозвољавање другима да имају увид у наше мозгове носи изузетне ризике.
02:16
also introduces extraordinary risks.
36
136841
3337
02:20
Which is why, before it's too late to do so,
37
140845
3003
Зато морамо да, пре него што буде прекасно,
02:23
we must change the basic terms of service for neurotechnology
38
143890
4838
променимо основне услове коришћења ове технологије у корист права појединаца.
02:28
in favour of individual rights.
39
148770
2252
02:31
I say this not just as a law professor who believes in the power of law,
40
151523
4462
Ово кажем, не само као професор права који верује у моћ права,
02:35
nor just a philosopher trying to flesh out norms,
41
155985
3921
нити као филозоф који покушава да разјасни те норме,
02:39
but as a mother who's been personally and profoundly impacted
42
159906
5339
него као мајка коју је дубоко и лично погододила
02:45
by the use of neurotechnology in my own life.
43
165245
2711
употреба ове технологије у мом животу.
02:50
On Mother's Day in 2017,
44
170291
3462
На Дан мајки 2017. године,
02:53
as my daughter Calista lay cradled in my arms,
45
173753
4964
љуљала сам моју ћерку Калисту у рукама
02:58
she took one last beautiful breath.
46
178717
3503
када је последњи пут удахнула ваздух.
03:03
After a prolonged hospitalization,
47
183972
2627
Након дуге хоспитализације, компликације и пратеће инфекције су јој узеле живот.
03:06
complications following infections claimed her life.
48
186599
3712
03:11
The harrowing trauma that she endured and we witnessed stretched into weeks.
49
191521
5047
Мучна траума коју је проживела, а ми јој сведочили се развукла у седмице.
03:17
And I was left with lasting trauma
50
197152
3044
А ја сам остала са трајном траумом
03:20
that progressed into post-traumatic stress disorder.
51
200238
3128
која је узнапредовала у пострауматски стресни поремећај.
03:24
Sleep escaped me for years.
52
204325
2837
Годинама нисам спавала. Сваки пут када бих затворила очи, све бих опет проживљавала,
03:27
As each time I closed my eyes, I relived everything,
53
207662
3629
03:31
from the first moments that I was pushed out of the emergency room
54
211332
4922
од првих тренутака када су ме изгурали из собе за хитне случајеве,
03:36
to her gut-wrenching cries.
55
216254
2127
па до њеног плача од којег се превће стомак.
03:39
Ultimately, it was the help of a talented psychologist,
56
219549
4171
На крају, кроз све то сам прошла захваљујући талентованом психологу
03:43
using exposure therapy,
57
223762
2210
који је користио терапију десензитизације
03:46
and my use of neurofeedback
58
226014
2586
и моју личну употребу можданих повратних информација
03:48
that enabled me to sleep through the night.
59
228600
2836
што ми је омогућило да поново спавам ноћу.
03:51
For others who are suffering from traumatic memories,
60
231770
3378
За све који болују од трауматских успомена
овај нови иновативни приступ који користи декодиране мождане повратне информације,
03:55
an innovative new approach using decoded neurofeedback,
61
235148
3629
03:58
or DecNef, may offer reprieve.
62
238777
2419
скраћено ДМПИ, може пружити олакшање.
04:01
This groundbreaking approach uses machine-learning algorithms
63
241613
3712
Овај револуционарни приступ користи алгоритме за машинско учење
04:05
to identify specific brain-activity patterns,
64
245366
3462
да препозна специфичне обрасце можданих активности,
04:08
including those associated with traumatic memories.
65
248870
3295
укључујући и оне повезане са труматичним успоменама.
Учесници онда играју игру која им тренира мозак да задрже мождане активности
04:12
Participants then play a game
66
252207
2544
04:14
that enables them to retrain their brain activity
67
254793
2711
04:17
on positive associations instead.
68
257545
2544
на позитивним асоцијацијама уместо на негативним.
04:21
If I had had DecNef available to me at the time,
69
261216
3545
Да ми је тада био доступан ДМПИ, можда бих се раније изборила са ПТСП-ом,
04:24
I might have overcome my PTSD more quickly
70
264803
3169
04:28
without having to relive every sound, terror and smell in order to do so.
71
268014
6423
и не бих морала поново да проживљавам сваки звук, мирис и сваки страх.
Нисам једина.
04:35
I'm not the only one.
72
275146
1543
04:36
Sarah described herself as being at the end of her life,
73
276689
3087
Сара је описала да је на крају свог живота, да га више не вреди живети,
04:39
no longer in a life worth living,
74
279818
2168
04:42
because of her severe and intractable depression.
75
282028
2795
све због тешке и неумољиве депресије.
04:45
Then, using implanted brain sensors
76
285740
3045
Онда, након уградње можданих сензора, који су јој ресетовали мождану активност,
04:48
that reset her brain activity like a pacemaker for the brain,
77
288827
4504
попут пејсмејкера за мозак, Сари се вратила воља за животом.
04:53
Sarah reclaimed her will to live.
78
293373
2878
04:56
While implanted neurotechnology advances have been extraordinary,
79
296960
4170
Иако су помаци у неуротехнолошким имплантима невереоватни,
05:01
it's the everyday brain sensors
80
301172
2544
верујем да ће свакодневни мождани сензори, уграђени у обичну технологију,
05:03
that are embedded in our ordinary technology
81
303758
2419
05:06
that I believe will impact the majority of our lives.
82
306219
3462
бити оно што ће највише утицати на наше животе.
05:09
Like the one third of adults
83
309722
2503
На пример, за трећину одраслих и четвртину деце, који живе са епилепсијом,
05:12
and nearly one quarter of children who are living with epilepsy
84
312225
3962
05:16
for whom conventional anti-seizure medications fail.
85
316187
3170
и којима конвенционални лекови против напада не помажу.
05:20
Now, researchers from Israel to Spain have developed brain sensors
86
320024
5089
Истраживачи од Израела до Шпаније развијају мождане сензоре
05:25
using the power of AI in pattern recognition
87
325113
3503
користећи моћ ВИ за препознавање образаца и комерцијалне електроенцефалографије
05:28
and consumer electroencephalography
88
328616
2836
05:31
to enable the detection of epileptic seizures minutes
89
331494
3712
који омогућавају откривање епилептичних напада од неколико минута до сат времена
05:35
to up to an hour before they occur,
90
335248
2419
пре него се десе, и шаљу обавештења на мобилне уређаје која могу спасити живот.
05:37
sending potentially life-saving alerts to a mobile device.
91
337667
3879
05:42
Regular use of brain sensors could even enable us
92
342171
2753
Редовна употреба можданих сензора нам може омогућити да откријемо најраније фазе
05:44
to detect the earliest stages
93
344966
1460
05:46
of the most aggressive forms of brain tumors, like glioblastoma,
94
346467
4630
чак и најагресивнијих можданих тумора, попут мултиформног глиобластома,
05:51
where early detection is crucial to saving lives.
95
351139
3253
где рано откривање значи разлику између живота и смрти.
05:54
The same could hold true for Parkinson's disease, to Alzheimer's,
96
354392
3712
Исто важи и за Паркиносона, Алцхајмера, трауматске повреде мозга,
05:58
traumatic brain injury, ADHD, and even depression.
97
358146
4004
поремећај хиперактивности и дефицита пажње, па чак и депресије.
06:03
We may even change our brains for the better.
98
363276
2461
Можда чак променимо и своје мозгове набоље.
06:06
The brain training game industry,
99
366321
1876
Индустрија игара за тренинг мозга,
06:08
worth a staggering 6.5 billion dollars in 2021,
100
368239
5005
процењена на запањујућих 6,5 милијарди долара у 2021. години,
06:13
was for years met with controversy
101
373286
1835
годинама је била контроверзна
06:15
because of unsupported scientific claims about their efficacy.
102
375121
3128
јер тврдње о њеној ефикасности нису биле научно поткрепљене.
06:19
But now some brain-training platforms like Cognizant have proven powerful
103
379000
5380
Али сада су се неке платформе за тренинг мозга попут Когнизанта доказале
06:24
in improving brain processing speeds, memory, reasoning
104
384422
4338
у побољшавању брзине обрађивања, памћења, расуђивања,
06:28
and even executive functioning when played repeatedly over time.
105
388801
4296
па чак и извршних функција када се играју дуже времена.
06:33
When paired with neurofeedback devices for learning reinforcement,
106
393139
4838
Када се упаре са МПИ уређајима за поткрепљивање учења,
06:38
this could revolutionize how we learn and adapt to change.
107
398019
3670
ово може да преокрене то како учимо и како се прилагођавамо променама.
06:42
Other breakthroughs could be transformational
108
402398
2836
Друга открића би могла да буду преображајна за људско искуство.
06:45
for the human experience.
109
405276
1710
06:47
Today, most human brain studies
110
407028
1793
Већина данашњих истраживања мозга се раде на веома малом броју учесника
06:48
are based on a very small number of participants
111
408821
2378
06:51
engaged in very specific tasks in a controlled laboratory environment.
112
411240
4505
који раде веома специфичне задатке у контролисаним лабораторијским условима.
06:56
With widespread use of brain sensors,
113
416245
2169
Распострањеном употребом можданих сензора
06:58
the data we could have to learn about the human brain
114
418456
2628
експоненцијално би се повећали подаци који би нам помогли да учимо о људском уму.
07:01
would exponentially increase.
115
421125
2002
Ако добијемо довољно велик скуп података, сакупљен у дужем временском периоду,
07:03
With sufficiently large datasets of long-term, real-world data
116
423169
4296
од људи из стварног света како раде свакодневне активности,
07:07
from people engaged in everyday activity,
117
427507
2752
07:10
we just might address everything from neurological disease and suffering
118
430301
3879
могли бисмо да откључамо сваку мистерију, од неуролошких болести и патње,
07:14
to creating transformational possibilities for the human experience.
119
434180
3962
па до стварања могућности да се цело људско искуство преобрази.
07:19
But all of this will only be possible
120
439811
3128
Међутим, ово неће бити могуће без поверљивости можданих података
07:22
if people can confidently share their brain data
121
442981
2711
07:25
without fear that it will be misused against them.
122
445733
3128
и без отклањања страха да ће ови подаци бити употребљени против нас.
07:29
You see, the brain data that will be collected
123
449404
2627
Видите, мождани подаци које ће ови уређаји производити и који ће се сакупљати
07:32
and generated by these devices
124
452073
1460
07:33
won't be collected in traditional laboratory environments
125
453533
4212
неће бити сакуљени у традиционалним, лабораторијским условима
07:37
or in clinical research studies run by physicians and scientists.
126
457745
4546
или клиничким истраживањима које спроводе доктори и научници.
07:42
Instead, it will be the sellers of these new devices,
127
462875
4130
Не, то ће радити продавци ових уређаја, исте оне компаније
07:47
the very companies who've been commodifying our personal data for years.
128
467046
4797
које годинама претварају наше личне податке у робу којом се тргује.
07:52
Which is why we can't go into this new era naive about the risks
129
472135
4379
Зато не можемо ући у ово ново доба неупућени у ризике
07:56
or complacent about the challenges
130
476556
2043
и бити несвесни изазова које сакупљање и дељење ових података носи.
07:58
that the collection and sharing our brain data will pose.
131
478641
3379
08:02
Scientific hurdles can and will be addressed in time,
132
482061
3003
Научне препреке се могу, и хоће, решити временом,
08:05
but the social hurdles will be the most challenging.
133
485106
3837
али друштвене препреке ће бити много изазовније.
08:10
Unlike the technologies of the past that track and hack the human brain,
134
490111
4713
За разлику од прошлих технологија које прате и хакују људски мозак,
08:14
brain sensors provide direct access to the part of ourselves
135
494824
3462
мождани сензори имају директан приступ делу нас који свесно заузадавамо,
08:18
that we hold back,
136
498327
1293
08:19
that we don't express through our words and our actions.
137
499620
2920
који не изражавамо кроз речи и дела.
08:22
Brain data in many instances will be more sensitive
138
502582
3253
Ови подаци ће у већини случајева бити много осетљивији од личних података,
08:25
than the personal data of the past,
139
505877
1835
08:27
because it reflects our feelings, our mental states, our emotions,
140
507754
4754
јер одражавају наша осећања, како свесна тако и несвесна, наше стање ума,
08:32
our preferences, our desires, even our very thoughts.
141
512550
3295
наше склоности, жеље, па чак и наше мисли.
08:36
I would never have wanted the data that was collected
142
516679
3879
Никада не бих пожелела да се ти подаци сакупљају
08:40
as I worked through the trauma of my personal loss
143
520600
3462
док сам пролазила кроз трауму и превазилазила лични губитак,
08:44
to have been commodified,
144
524103
1627
да их после неко претвори у робу и њима тргује, да их дели и анализира.
08:45
shared and analyzed by others.
145
525730
2502
08:48
These aren't just hypothetical risks.
146
528691
2378
Ово нису само хипотетички ризици.
Узмимо на пример Ентертек, компанију са седиштем у Хангџоу,
08:51
Take Entertek, a Hangzhou-based company,
147
531110
2753
08:53
who has collected millions of instances of brain activity data
148
533905
3879
који је сакупио милионе случајева можданих активности
08:57
as people have engaged in mind-controlled car racing,
149
537784
3295
док су људи управљали умом аутима за тркање, док су спавали, радили,
09:01
sleeping, working,
150
541120
1710
09:02
even using neurofeedback with their devices.
151
542830
3128
чак и док су употребљавали њихове уређаје кроз мождане повратне информације.
09:06
They've already entered into partnerships with other companies
152
546000
3629
Већ су формирали партнерства са другим фирмама о дељењу и анализи тих података.
09:09
to share and analyze that data.
153
549670
2086
09:12
Unless people have individual control over their brain data,
154
552256
4129
Ако појединци не буду имали контролу над својим можданим подацима,
09:16
it will be used for microtargeting or worse,
155
556427
2670
користиће их за миркотаргетирање и много горе ствари, а не за лечење деменције.
09:19
instead of treating dementia.
156
559138
2086
09:21
Like the employees worldwide
157
561641
3128
Почевши од запослених широм света који већ подлежу
09:24
who've already been subject to brain surveillance in the workplace
158
564811
3628
можданом надзору на радном месту где им се прати пажња и умор,
09:28
to track their attention and fatigue,
159
568481
2461
09:30
to governments, developing brain biometrics,
160
570942
2544
преко влада које развијају биометрију мозга за потврђивања идентитета на граници
09:33
to authenticate people at borders,
161
573486
2127
09:35
to interrogate criminal suspects' brains
162
575655
4671
и испитивања мозгова осумњичених за злочине,
до прављења оружја које може да дезоријентише и онеспособи људски мозак.
09:40
and even weapons that are being crafted
163
580326
3045
09:43
to disable and disorient the human brain.
164
583371
2711
09:46
Brain wearables will have not only read but write capabilities,
165
586499
3545
Носива неуротехнологија ће имати могућности да мења,
а не само да очитава способности,
09:50
creating risks that our brains can be hacked, manipulated,
166
590044
3837
што ствара опасност да ће неко моћи да хакује наш мозак, да манипулише нама,
09:53
and even subject to targeted attacks.
167
593923
2419
чак и да будемо мете циљаних напада.
09:56
We must act quickly to safeguard against the very real
168
596843
4212
Морамо брзо деловати да се заштитимо од веома стварне
10:01
and terrifying risks to our innermost selves.
169
601097
2878
и застрашујуће опасности по нас саме.
10:04
Recognizing a human right to cognitive liberty
170
604642
3712
Препознавање когнитивне слободе као људског права би нудило такву заштиту.
10:08
would offer those safeguards.
171
608396
1918
10:10
Cognitive liberty is a right from interference by others,
172
610815
3337
Когнитивна слобода би била наше право да се други не мешају,
10:14
but it is also a right to self-determination
173
614193
3170
али исто тако и наше право да одлучујемо о нашем мозгу
10:17
over our brains and mental experiences to enable human flourishing.
174
617363
3837
и томе како доживљавамо све оно што нам дозвољава индивидуални развој.
10:21
To achieve this,
175
621784
1293
Да бисмо ово постигли, треба да препознамо три повезана људска права
10:23
we need to recognize three interrelated human rights
176
623077
3962
10:27
and update our understanding of them
177
627081
2127
и да осавременимо схватање истих да бисмо осигурали право на менталну приватност
10:29
to secure to us a right to mental privacy,
178
629208
2878
10:32
to safeguard us from interference with our automatic reactions,
179
632086
3796
и успоставили брану од утицаја других на наше аутоматске реакције, осећања и мисли.
10:35
our emotions and our thoughts.
180
635923
2419
10:38
Freedom of thought as an absolute human right
181
638342
2545
Слобода мишљења је апсолутно људско право које гарантује да нам
10:40
to protect us from interception,
182
640928
2211
нико не може пресрести или управљати мислима, нити нас због њих кажњавати.
10:43
manipulation and punishment of our thoughts.
183
643181
2961
Право на самоопредељење гарантује
10:46
And self-determination
184
646142
1668
10:47
to secure self-ownership over our brains and mental experiences,
185
647810
4505
сигурну контролу над нашим умовима и духовним искуствима,
10:52
to access and change them if we want to do so.
186
652356
2878
те да им можемо приступити и мењати их само ако то желимо.
10:56
There are important efforts already underway
187
656277
2252
Учињени су значајни напори од стране држава широм света, од УН-a па до Унескоа,
10:58
from the UN to UNESCO, in nations worldwide,
188
658571
3170
11:01
over rights and regulations around neurotechnologies.
189
661741
3462
да се правно уреди област неуротехнологије.
11:05
But those rights need to be better aligned
190
665661
2336
Међутим, та права морају бити усклађенија са ширим скупом дигиталних права.
11:07
with a broader set of digital rights.
191
667997
2336
11:11
Cognitive liberty is an update to liberty in the digital age
192
671083
5089
Когнитивна слобода је само унапређење слободе у дигиталном добу
11:16
as an umbrella concept of human flourishing
193
676172
2794
као кровни концепт индивидуалног развоја широм дигиталних технологија.
11:19
across digital technologies.
194
679008
2169
11:21
Because the right way forward isn't through metaverse rights
195
681636
2836
Јер прави пут није кроз права метаверзума, права ВИ или неуротехнологије, или слично.
11:24
or AI rights
196
684513
1127
11:25
or neurotech rights and the like.
197
685681
2086
11:27
It's to recognize that these technologies don't exist in silos,
198
687767
4504
Него да препознамо да те технологије не постоје изоловано,
11:32
but in combination, affecting our brains and mental experiences.
199
692271
4546
него да заједно могу да утичу на наше мозгове и духовно искуство.
11:38
We are literally at a moment before.
200
698027
3337
Дословно нас тренутак дели од тога. И заиста мислим на тренутак.
11:41
And I mean a moment.
201
701739
2085
11:44
Consumer brain wearables have already arrived,
202
704283
2503
Комерцијална носива неуротехнологија је већ ту
11:46
and the commodification of our brains has already begun.
203
706786
3503
а претварање наших мозгова у робу је већ почело.
11:50
It's now just a question of scale.
204
710790
3128
Само је питање размере.
11:54
We haven't yet passed the inflection point
205
714794
2294
Нисмо још прошли тачку када ће други моћи
11:57
where most of our brains can be directly accessed and changed by others.
206
717088
4212
да директно приступе и мењају већи део нашег мозга.
12:01
But it is about to happen,
207
721842
2545
Међутим, то само што се није десило.
12:04
giving us a final moment to make a change
208
724387
2794
И последњи је тренутак да променимо нешто
12:07
so that we don't look back in a few years' time
209
727223
2335
да се не бисмо после пар година сећали и јадиковали над светом који смо изгубили.
12:09
and lament the world we've left behind.
210
729600
3128
12:13
We can and should be hopeful and deliberate
211
733354
4087
Можемо и требамо имати наду и истрајност у изборима које сада правимо
12:17
about the choices we make now
212
737441
2211
12:19
to secure a right to self-determination over our brains and mental experiences.
213
739694
4921
да осигурамо право на опредељење у вези с нашим мозговима и духовним искуствима.
12:25
The possibilities, if we do so,
214
745116
3086
Ако то учинимо, могућности су ограничене само нашом маштом.
12:28
are limited only by our imagination.
215
748202
2878
12:31
Thank you.
216
751580
1168
Хвала вам.
12:32
(Applause)
217
752790
3212
(Аплауз)
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7