How AI and Democracy Can Fix Each Other | Divya Siddarth | TED

25,578 views ・ 2024-03-05

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Figen Ergürbüz Gözden geçirme: Selin Tüfekçi
00:04
Recently I told someone my work is on democracy and technology.
0
4334
4630
Geçenlerde birine işimin demokrasi ve teknoloji üzerine olduğunu söyledim.
00:09
He turned to me and said,
1
9464
1210
Bana döndü ve şöyle dedi
00:10
“Wow...
2
10674
1001
“Vay canına...
00:11
I’m sorry.”
3
11925
1335
senin için üzüldüm.”
00:13
(Laughter)
4
13260
1251
(Kahkahalar)
00:15
But I love my work.
5
15637
1710
Ama işimi seviyorum.
00:17
I know that we can build a world
6
17681
1918
Teknolojik harikaların getirilerinin
00:19
where technological marvels are directed towards people's benefit,
7
19641
4212
insanların yararına yönlendirildiği bir dünya inşa edebileceğimizi
00:23
using their input.
8
23895
1460
biliyorum.
00:26
We have gotten so used to seeing democracy as a problem to be solved.
9
26147
4463
Demokrasiyi çözülmesi gereken bir sorun olarak görmeye alıştık.
00:32
But I see democracy as a solution,
10
32028
2878
Bense demokrasiyi bir çözüm olarak görüyorum
00:34
not as a problem.
11
34906
1835
sorun olarak değil.
00:37
Democracy was once a radical political project,
12
37909
3003
Demokrasi bir zamanlar radikal bir politik projeydi,
00:40
itself a cutting-edge social technology,
13
40912
3087
kendisi de ileri bir sosyal teknolojiydi,
00:44
a new way to answer the very question we are faced with now,
14
44040
4797
şimdilerde yapay zekâ çağında karşı karşıya olduğumuz
00:48
in the era of artificial intelligence:
15
48837
2794
soruya yanıt vermek için yeni bir fırsattı:
00:51
how do we use our capabilities to live well together?
16
51631
4755
Yeteneklerimizi birlikte refah içinde yaşamak için nasıl kullanırız?
00:57
We are told that transformative technologies like AI are too complicated,
17
57679
5756
Bize yapay zekâ gibi dönüştürücü teknolojilerin
demokratik yöntemlerle yönetilemeyecek kadar karmaşık,
01:03
or too risky
18
63435
2419
01:05
or too important to be governed democratically.
19
65895
3546
riskli veya ciddi olduğu söylendi.
01:10
But this is precisely why they must be.
20
70650
3462
Ama tam da bu yüzden demokratik yöntemlerle yönetilmeliler.
01:14
If existing democracy is unequal to the task,
21
74112
2544
Mevcut demokrasi bu iş için uygun değilse
01:16
our job is not to give up on it.
22
76698
2169
bizim görevimiz demokrasiden vazgeçmek değil
01:19
Our job is to evolve it.
23
79367
2544
demokrasiyi geliştirmek dönüştürmektir.
01:22
And to use technology as an asset to help us do so.
24
82746
3253
Ve teknolojiyi bu konuda bize yardımcı olacak bir araç olarak kullanmak.
01:26
Still, I understand his doubts.
25
86958
2044
Yine de arkadaşımın şüphelerini anlıyorum.
01:29
I never meant to build my life around new forms of democracy.
26
89336
3670
Hayatımı demokrasinin yeni modelleri etrafında inşa etmek istemedim.
01:33
I started out just really believing in the power of science.
27
93632
3378
Sadece bilimin gücüne gerçekten inanarak başladım.
01:38
I was modifying DNA in my kitchen at 12,
28
98053
4504
12 yaşındayken mutfağımızda DNA’yı değiştiriyordum
01:42
and when I got to Stanford as a computational biology major,
29
102557
3754
ve hesaplamalı biyoloji eğitimi almak üzere Stanford’a geldiğimde
01:46
I was converted to a new belief -- technology.
30
106311
3295
başka bir inanca yöneldim -- teknoloji.
01:49
I truly believed in the power of tech to change the world.
31
109939
3003
Teknolojinin dünyayı değiştirme gücüne gerçekten inandım.
01:52
Maybe, like many of you.
32
112942
1752
Belki, birçoğunuz gibi.
01:55
But I saw that the technologies that really made a difference
33
115695
2878
Ama cidden fark yaratan teknolojilerin kolektifle birlikte
01:58
were the ones that were built with and for the collective.
34
118573
3879
ve kolektif için inşa edilmiş teknolojiler olduğunu gördüm.
Bağımlılık yaratan 19. sosyal medya uygulamasına pompalanan
02:03
Not the billions of dollars
35
123370
1418
02:04
pumped into the 19th addiction-fueling social app.
36
124829
3128
milyarlarca dolar değil de,
02:09
But the projects that combine creating something truly new
37
129167
3629
gerçekten yeni bir şey yaratmayı onu insanların erişebileceği,
02:12
with building in ways for people to access,
38
132796
3128
yararlanabileceği ve yönetebileceği şekilde inşa etmekle
02:15
benefit from and direct it.
39
135924
2252
birleştiren projeler.
02:18
Instead of social media, think of the internet.
40
138885
2544
Sosyal medya yerine interneti düşünün.
02:21
Built with public resources on open standards.
41
141429
3212
Açık standartlarda kamu kaynakları ile oluşturulmuştur.
02:25
This is what brought me to democracy.
42
145892
2669
Beni demokrasiye yönlendiren işte buydu.
02:29
Technology expands what we are capable of.
43
149729
3087
Teknoloji, yapabileceklerimizin sınırlarını genişletiyor.
02:33
Democracy is how we decide what to do with that capability.
44
153858
5089
Demokrasi, bu kapasite ile ne yapacağımıza nasıl karar vereceğimiz.
02:40
Since then, I've worked on using democracy as a solution
45
160115
3712
O zamandan beri Hindistan, ABD, İngiltere, Tayvan’da
02:43
in India, the US, the UK, Taiwan.
46
163868
3295
demokrasiyi çözüm olarak kullanmak üzerine çalıştım.
02:47
I've worked alongside incredible collaborators
47
167455
2670
Demokrasiyi kullanarak COVID ve veri hakları gibi problemleri çözmeye
02:50
to use democracy to help solve COVID,
48
170125
2711
yardımcı olmak için
02:52
to help solve data rights.
49
172836
1751
inanılmaz iş ortaklarıyla birlikte çalıştım.
02:54
And as I'll tell you today,
50
174629
2127
Ve de bugün sizlere bahsedeceğim gibi,
02:56
to help solve AI governance with policymakers around the world
51
176798
4171
yapay zekâ yönetiminin çözülmesine yardımcı olmak için dünyadaki politika
03:01
and cutting-edge technology companies like OpenAI and Anthropic.
52
181010
4505
belirleyici kişiler ve Open AI, Anthropic gibi teknoloji şirketleriyle çalıştım.
03:05
How?
53
185849
1167
Nasıl mı?
03:07
By recognizing that democracy is still in its infancy.
54
187434
4546
Demokrasinin hâlâ emekleme aşamasında olduğunu kabul ederek.
03:12
It is an early form of collective intelligence,
55
192522
3795
Kolektif zekânın erken bir formudur
03:16
a way to put together decentralized input from diverse sources
56
196359
4755
çeşitli kaynaklardan merkezi olmayan verileri bir araya getirmenin
03:21
and produce decisions that are better than the sum of their parts.
57
201156
4170
ve bunlarla daha iyi kararlar üretmenin bir yoludur.
03:26
That’s why, when my fantastic cofounder Saffron Huang and I
58
206161
3920
Bu nedenle, harika kurucu ortağım Saffron Huang ve ben
dönüştürücü teknoloji için yeni demokratik yönetim modelleri oluşturmak
03:30
left our jobs at Google DeepMind and Microsoft
59
210123
3086
03:33
to build new democratic governance models for transformative tech,
60
213209
4129
amacıyla Google DeepMind ve Microsofttaki işlerimizi bıraktığımızda
03:37
I named our nonprofit the Collective Intelligence Project,
61
217380
4088
o sırada gelişim aşamasında olan kolektif ilerleme için kolektif zekâ üretme
03:42
as a nod to the ever-evolving project of building collective intelligence
62
222427
6256
projemize de gönderme yapmak için kâr amacı gütmeyen kuruluşumuza
03:48
for collective flourishing.
63
228725
2294
Kolektif Zekâ Projesi adını verdim.
03:52
Since then we've done just that,
64
232228
2253
O zamandan beri tam da bunu yaptık,
03:54
building new collective intelligence models to direct artificial intelligence,
65
234481
4587
yapay zekâyı yönlendirmek, demokratik süreçleri yürütmek için
03:59
to run democratic processes.
66
239068
2169
yeni kolektif zekâ modelleri oluşturduk.
04:01
And we've incorporated the voices of thousands of people into AI governance.
67
241237
3879
Binlerce insanı yapay zekâ yönetimine dahil ettik.
04:06
Here are a few of the things we've learned.
68
246242
2044
İşte öğrendiğimiz şeylerden birkaçı.
04:08
First, people are willing and able to have difficult,
69
248995
4838
Birincisi, insanlar düşündürücü konularda
04:13
complex conversations on nuanced topics.
70
253833
2878
zor ve karmaşık konuşmalar yapmaya istekliler ve bunda iyiler.
04:17
When we asked people about the risks of AI they were most concerned about,
71
257378
4380
Yapay zekânın hangi riskinin onları en çok endişelendirdiğini sorduğumuzda
04:21
they didn't reach for easy answers.
72
261758
1918
kolaya kaçmadılar.
04:24
Out of more than 100 risks put forward,
73
264469
2169
Ortaya konulan 100′den fazla riskten
04:26
the top-cited one: overreliance on systems we don't understand.
74
266679
5214
en çok bahsedilen şuydu anlamadığımız sistemlere aşırı güvenmek.
04:32
We talked to people across the country,
75
272435
1877
Ortabatı’daki bir gaziden Güney’deki genç bir öğretmene kadar
04:34
from a veteran in the Midwest to a young teacher in the South.
76
274312
3337
ülkenin dört bir yanındaki insanlarla konuştuk.
04:37
People were excited about the possibilities of this technology,
77
277649
3670
İnsanlar bu teknolojinin olanakları konusunda heyecanlıydılar,
04:41
but there were specific things they wanted to understand
78
281319
2711
ancak modeller dünyaya yayılmadan önce
onların neler yapabilecekleri konusunda anlamak istedikleri belirli şeyler vardı.
04:44
about what models were capable of before seeing them deployed in the world.
79
284030
3837
04:48
A lot more reasonable than many of the policy conversations that we're in.
80
288701
4046
Bugün yaptığımız politika konuşmalarının çoğundan çok daha makul.
04:53
And importantly, we saw very little of the polarization
81
293331
3378
Ve daha da önemlisi, sürekli olarak bahsedilen
04:56
we're always hearing about.
82
296751
1585
kutuplaşmayı çok az gördük.
04:59
On average, just a few divisive statements
83
299045
3003
Ortalama yüzlerce fikirbirliği ifadesi arasında
05:02
for hundreds of consensus statements.
84
302090
2544
sadece birkaç bölücü ifade vardı.
05:05
Even on the contentious issues of the day,
85
305385
2002
İfade özgürlüğü veya ırk ve cinsiyet gibi
05:07
like free speech or race and gender,
86
307428
2169
zamanın tartışmalı konularında bile
05:09
we saw far more agreement than disagreement.
87
309639
2794
anlaşmazlıktan çok daha fazla anlaşma gördük.
05:13
Almost three quarters of people agree that AI should protect free speech.
88
313393
3753
İnsanların neredeyse dörtte üçü yapay zekânın ifade özgürlüğünü koruması
05:17
Ninety percent agree that AI should not be racist or sexist.
89
317146
3546
ve %90′ı onun ırkçı veya cinsiyetçi olmaması gerektiği konusunda hemfikir.
05:21
Only around 50 percent think that AI should be funny though,
90
321651
2878
Sadece %50′si yapay zekânın komik olması gerektiğini düşünüyor,
05:24
so they are still contentious issues out there.
91
324529
2294
yani hâlâ tartışmalı konular yok değil.
05:28
These last statistics
92
328783
1585
Bu son istatistikler,
05:30
are from our collective constitution project with Anthropic,
93
330410
3712
dünyanın en güçlü dil modellerinden birini 1000 temsilci Amerikan tarafından yazılan
05:34
where we retrained one of the world's most powerful language models
94
334122
3378
ilkeler üzerine tekrar eğittiğimiz,
05:37
on principles written by 1,000 representative Americans.
95
337500
3670
Anthropic ile olan ortak anayasa projemizden.
05:41
Not AI developers or regulators or researchers at elite universities.
96
341754
5339
Elit üniversitelerdeki yapay zekâ geliştirici,
düzenleyici veya araştırmacılar tarafından değil.
05:47
We built on a way of training AI
97
347427
2043
Yazılı bir dizi ilkeye veya bir anayasaya dayanan
05:49
that relies on a written set of principles or a constitution,
98
349470
3421
bir yapay zekâ eğitim modeli inşa ettik,
05:52
we asked ordinary people to cowrite this constitution,
99
352932
2628
ve sıradan insanlardan bu anayasayı yazmalarını istedik,
05:55
we compared it to a model that researchers had come up with.
100
355602
3003
sonra onu araştırmacıların bulduğu bir modelle karşılaştırdık.
05:59
When we started this project, I wasn't sure what to expect.
101
359230
4046
Bu projeye başladığımızda ne bekleyeceğimi bilmiyordum.
06:03
Maybe the naysayers were right.
102
363776
1794
Belki de hayır diyenler haklıydı.
06:05
AI is complicated.
103
365987
1418
Yapay zekâ karmaşıktır.
06:08
Maybe people wouldn't understand what we were asking them.
104
368448
2836
Belki insanlar onlardan istediğimiz şeyi anlayamayacaktı.
06:11
Maybe we'd end up with something awful.
105
371826
2252
Belki de sonuç berbat olacaktı.
06:15
But the people’s model, trained on the cowritten constitution,
106
375371
3921
Ancak birlikte yazılan anayasa üzerine eğitilmiş modellerden,
06:19
was just as capable and more fair
107
379292
4046
sıradan insalara ait olan araştırmacıların modeli kadar yetenekliydi
06:23
than the model the researchers had come up with.
108
383338
2460
ve ondan daha adildi.
06:26
People with little to no experience in AI
109
386382
2878
Yapay zekâ konusunda çok az deneyimi olan veya hiç deneyimi olmayan insanlar
06:29
did better than researchers, who work on this full-time,
110
389302
3587
daha adil bir chat botu oluşturmakta bu alanda tam zamanlı çalışan
06:32
in building a fairer chatbot.
111
392931
2544
araştırmacılardan daha iyi bir iş çıkardılar.
06:36
Maybe I shouldn't have been surprised.
112
396142
2127
Belki de şaşırmamalıydım.
06:38
As one of our participants from another process said,
113
398311
3587
Başka bir süreçte katılımcılarımızdan birinin söylediği gibi,
06:41
"They may be experts in AI, but I have eight grandchildren.
114
401940
3712
“Yapay zekâ konusunda uzman olabilirler, ancak sekiz torunum var.
06:45
I know how to pick good values."
115
405693
2044
Gerçek değerleri seçmeyi çok iyi bilirim.”
06:51
If technology expands what we are capable of
116
411282
2503
Teknoloji yapabileceklerimizin sınırlarını genişletiyorsa
06:53
and democracy is how we decide what to do with that capability,
117
413785
3420
ve demokrasi bu kapasiteyle ne yapacağımıza karar verme şeklimiz ise,
06:57
here is early evidence that democracy can do a good job deciding.
118
417246
4588
işte bu, demokrasinin karar vermekte iyi iş çıkarabileceğinin erken kanıtı.
07:03
Of course, these processes aren't enough.
119
423127
1961
Tabii ki bu süreçler yeterli değil.
Kolektif zekâ, teknoloji ve demokrasinin
07:05
Collective intelligence requires a broader reimagining of technology
120
425129
3212
daha kapsamlı bir şekilde yeniden tasarlanmasını gerektirir.
07:08
and democracy.
121
428383
1459
07:09
That’s why we’re also working on co-ownership models
122
429842
3045
Ayrıca sonuç olarak hepimize ait olan yapay zekânın temeli olan veriler için
07:12
for the data that AI is built on -- which, after all, belongs to all of us --
123
432929
4588
ortak mülkiyet modelleri üzerine çalışmamızın ve daha iyi karar süreçleri
oluşturmak için yapay zekânın kendisini kullanmamızın nedeni de bu.
07:18
and using AI itself to create new and better decision-making processes.
124
438184
4296
07:22
Taking advantage of the things
125
442981
1459
Devasa miktarlarda metin girişini işlemek gibi
07:24
that language models can do that humans can’t,
126
444440
2169
dil modellerinin yapabileceği insanların yapamayacağı şeylerde
07:26
like processing huge amounts of text input.
127
446609
2211
yapay zekâdan faydalanıyoruz.
07:30
Our work in Taiwan has been an incredible test bed for all of this.
128
450154
4880
Tayvan'daki çalışmalarımız tüm bunlar için inanılmaz bir test yatağı oldu.
07:36
Along with Minister Audrey Tang and the Ministry of Digital Affairs,
129
456494
4755
Bakan Audrey Tang ve Dijital İşler Bakanlığı ile birlikte
07:41
we are working on processes to ask Taiwan's millions of citizens
130
461249
3754
Tayvan’ın milyonlarca vatandaşına yapay zekâyla birlikte bir gelecekte
07:45
what they actually want to see as a future with AI.
131
465044
3879
gerçekten ne görmek istediklerini sormak için çalışıyoruz.
07:49
And using that input not just to legislate,
132
469966
3045
Ve bu girdiyi sadece yasa yapmak için değil,
yapay zekâyı geliştirmek için de kullanıyoruz.
07:53
but to build.
133
473052
1126
07:54
Because one thing that has already come out of these processes
134
474762
3295
Çünkü bu süreçlerden ortaya çıkan insanların yapay zekâda
07:58
is that people are truly excited about a public option for AI,
135
478099
3545
herkese açık bir seçenek konusunda gerçekten heyecanlı olmalarıdır.
08:01
one that is built on shared public data that is reliably safe,
136
481644
4213
Topluluklara erişim, yararlanma ve ihtiyaçlarına göre ayarlama
08:05
that allows communities to access, benefit from
137
485898
3212
imkanı sunan,
güvenilirliği yüksek kamusal veriler üzerine geliştirilmiş bir seçenek.
08:09
and adjust it to their needs.
138
489152
1751
08:12
This is what the world of technology could look like.
139
492280
3211
Teknoloji dünyası böyle görünüyor olabilir.
08:15
Steered by the many for the many.
140
495867
2586
Çoğunluk için çoğunluk tarafından yönlendiriliyor gibi.
08:20
I often find that we accept unnecessary trade-offs
141
500288
3795
Dönüştürücü teknoloji söz konusu olduğunda sıklıkla
gereksiz bedeller ödemeyi kabul ettiğimizi görüyorum.
08:24
when it comes to transformative tech.
142
504083
2044
08:26
We are told that we might need to sacrifice democracy
143
506961
3253
Teknolojik ilerleme uğruna
demokrasiden ödün vermek zorunda kalabileceğimiz söyleniyor.
08:30
for the sake of technological progress.
144
510214
2586
08:32
We have no choice but to concentrate power to keep ourselves safe
145
512842
3587
Kendimizi olası risklerden korumak için
gücü tek bir noktaya toplamaktan başka seçeneğimiz olmadığı.
08:36
from possible risks.
146
516429
1501
08:38
This is wrong.
147
518765
1626
Bunlar doğru değil.
08:40
It is impossible to have any one of these things --
148
520933
3462
İlerleme, güvenlik veya demokratik katılım--
08:44
progress, safety or democratic participation --
149
524437
3670
bunlardan herhangi birisine--
diğer ikisi olmaksızın sahip olmak imkansızdır.
08:48
without the others.
150
528149
1501
08:50
If we resign ourselves to only two of the three,
151
530276
3420
Bu üçünden sadece ikisine razı olursak,
08:53
we will end up with either centralized control or chaos.
152
533738
3587
kendimizi merkezi kontrol altında ya da kaos içinde buluruz.
08:57
Either a few people get to decide or no one does.
153
537825
3796
Birkaç kişi kontrolde olur ya da kimse kontrolde olmaz.
09:02
These are both terrible outcomes,
154
542497
1585
Bunlardan her ikisi de korkunç sonuçlar,
09:04
and our work shows that there is another way.
155
544123
2836
ve çalışmalarımız bunun başka bir yolu olduğunu gösteriyor.
09:07
Each of our projects advanced progress,
156
547710
2753
Projelerimizin her biri
09:10
safety and democratic participation
157
550505
3253
ileri teknoloji demokratik yapay zekâ modelleri oluşturarak,
09:13
by building cutting-edge democratic AI models,
158
553800
3295
yaygın riskleri anlamak için kamu uzmanlığından faydalanarak,
09:17
by using public expertise as a way to understand diffuse risks
159
557136
4713
ve dijital varlıklar için dijital ortak mülkiyet modelleri tasarlayarak
09:21
and by imagining co-ownership models for the digital commons.
160
561849
3671
ilerleme, güvenlik ve demokratik katılımı geliştirdi.
09:27
We are so far from the best collective intelligence systems we could have.
161
567396
5423
Sahip olabileceğimiz en iyi kolektif istihbarat sistemlerinden çok uzaktayız.
09:33
If we started over on building a decision-making process for the world,
162
573486
4379
Dünya için yeniden bir karar verme süreci oluşturmaya başlasaydık,
09:37
what would we choose?
163
577865
1377
neyi seçerdik?
09:40
Maybe we'd be better at separating financial power from political power.
164
580284
5005
Belki finansal gücü siyasi iktidardan daha iyi ayırırdık.
09:46
Maybe we'd create thousands of new models of corporations
165
586290
3087
Belki binlerce yeni şirket veya bürokrasi modeli
09:49
or bureaucracies.
166
589418
1419
yaratırdık.
09:51
Maybe we'd build in the voices of natural elements
167
591379
3670
Belki bunları yaparken doğayı veya gelecek nesilleri de
09:55
or future generations.
168
595049
1585
düşünürdük.
09:57
Here's a secret.
169
597844
1293
Size bir sır vereyim.
09:59
In some ways, we are always starting from scratch.
170
599804
4046
Bir bakıma her zaman sıfırdan başlıyoruz.
Yeni teknolojiler yeni kolektif zekâ sistemleriyle birlikte gelebilecek
10:04
New technologies usher in new paradigms
171
604225
3128
10:07
that can come with new collective intelligence systems.
172
607353
3253
yeni paradigmaları başlatıyor.
10:11
We can create new ways of living well together
173
611274
4004
Bunları değişim için bir fırsat olarak kullanırsak,
10:15
if we use these brief openings for change.
174
615319
3337
birlikte refah içinde yaşamak için yeni yollar ortaya koyabiliriz.
10:19
The story of technology and democracy is far from over.
175
619532
3337
Teknoloji ve demokrasinin hikâyesi daha bitmedi.
10:22
It doesn't have to be this way.
176
622910
1669
Böyle olmak zorunda değil.
Her şey hayal bile edemeyeceğimiz kadar iyi olabilirdi.
10:25
Things could be unimaginably better.
177
625037
2378
10:28
As the Indian author Arundhati Roy once said,
178
628040
3754
Hintli yazar Arundhati Roy’un
10:31
"Another world is not only possible,
179
631836
2878
bir zamanlar dediği gibi,
“Başka bir dünya sadece mümkün değil, o yolda, geliyor.
10:34
she is on her way.
180
634755
1627
10:37
On a quiet day, I can hear her breathing."
181
637258
3337
Sessiz bir günde, nefesini duyabiliyorum.”
10:41
I can hear our new world breathing.
182
641804
2628
Yeni dünyamızın nefes aldığını duyabiliyorum.
10:44
One in which we shift the systems we have
183
644473
3087
Görmek istediğimiz dünyaları inşa etmek için mevcut sistemlerimizi
10:47
towards using the solution of democracy to build the worlds we want to see.
184
647560
4504
demokrasi çözümünü kullanmaya adapte ettiğimiz bir dünya.
10:53
The future is up to us.
185
653107
1543
Gelecek bize bağlı.
10:55
We have a world to win.
186
655067
1669
Kazanmamız gereken bir dünya var.
10:57
Thank you.
187
657361
1168
Teşekkür ederim.
10:58
(Applause)
188
658529
2670
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7