Is AI the most important technology of the century?

365,293 views ・ 2023-04-04

TED-Ed


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Emel Çırakoğlu Gözden geçirme: Ömer Faruk Zeren
00:07
What's the most important century in human history?
0
7003
3587
İnsanlık tarihindeki en önemli yüzyıl hangisidir?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Bazıları, kapsamlı askeri harekatların olduğu dönemler olduğunu savunabilir,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
Milattan önce 300′lerde yaşamış,
siyasi ve kültürel sınırları yeniden şekillendiren Büyük İskender gibi.
00:18
which reshaped political and cultural borders.
3
18848
3253
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Diğerleri ise önemli bir dinin çıkışından bahsedebilir,
00:27
such as Islam in the 7th century,
5
27023
2127
7. yüzyılda değerlerini kodlayan ve yayan İslamiyet gibi.
00:29
which codified and spread values across such borders.
6
29525
3504
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
Ya da belki de 1700′lerde dünya ekonomisini dönüştüren
00:38
that transformed global commerce
8
38993
1752
ve insanların iş ile olan ilişkisini
00:40
and redefined humanity's relationship with labor.
9
40745
3128
yeniden tanımlayan Sanayi Devrimi olabilir
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Cevap ne olursa olsun, öyle görünüyor ki
o en üst nokta için yarışan herhangi bir yüzyıl
00:48
is at a moment of great change—
11
48294
2377
atalarımızın hareketleri, insanlığın yörüngesini
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
gelecek yüzyıllar için değiştirildiğinde
00:55
for centuries to come.
13
55802
1584
büyük değişimin anına denk geliyor gibi.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Eğer bu bizim metriğimiz ise, şimdinin—
01:01
this century— is the most important one yet?
15
61641
3086
bu yüzyılın— en önemlisi olma ihtimali var mı?
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
21. yüzyıl halihazırda
hızlı teknolojik gelişmelerin bir dönemi olduğunu kanıtladı.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Telefonlar ve bilgisayarlar hayatın her alanına hızla girdi.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
Muhtemelen yeni dönüştürücü teknolojiler geliştirmenin de eşiğindeyiz,
01:18
like advanced artificial intelligence,
19
78574
2294
insanların hayatını tamamen değiştirebilecek
01:20
that could entirely change the way people live.
20
80868
2878
ileri düzey yapay zeka gibi.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Bu arada, sahip olduğumuz çoğu teknoloji
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
insanlığa benzeri görülmemiş varoluşsal bir risk oluşturuyor—
01:33
that’s the risk of our species going extinct
23
93381
2377
soyumuzun tükenmesine neden olacak bir risk veya
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
insanlığın büyümesini limitleyen bir çeşit felaket.
01:39
humanity’s ability to grow and thrive.
25
99178
2670
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Atom bombasının bulunması varouşsal riskte büyük bir yükselişe neden oldu,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
ve o zamandan bu zamana sadece bize karşı olanı arttırdık.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Bu yüzyılda olacak varoluşsal çöküşün
01:55
of an existential collapse occurring this century.
29
115528
2628
olasılığını tahmin etmek oldukça zor.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Kabaca tahminler varoluşsal riskin felaketini
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
nükleer kış ve iklim değişikliği nedeniyle %0.1,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
pandeminin aynı tarz çöküşü yaratmasıyla
02:11
at a frightening 3%.
33
131502
1960
korkutucu bir %3 olduğunu ortaya koyuyor.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Bu felaketlerin herhangi birinin yaşamı bitirebileceğini bilsek de,
02:19
these aren’t exactly small figures,
35
139177
2127
bunlar tam olarak küçük figürler değil.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
Bu yüzyılda yeni teknolojilerin yükselişinin
02:25
that introduce more existential risks.
37
145308
2794
daha çok varoluşsal risk oluşturabilmesi mümkün.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
Yapay zeka uzmanlarının, genel yapay zekanın ne zaman ortaya çıkacağına dair
02:31
when artificial general intelligence will emerge,
39
151731
2961
geniş bir tahmin aralığı var
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
ancak bazı anketlere göre çoğu bu yüzyılda olabileceğini düşünüyor.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
Şu anda yapay zekanın sınırlı formlarına sahibiz
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
ki bunlar satranç oynayan veya yüz tanımak gibi
spesifik görevleri yapmak için tasarlanmış olanlar.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Yaratıcı çalışmalar yapan sınırlı yapay zekalar bile
tekil uzmanlıklarıyla sınırlı.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
Ama genel yapay zekalar, diğer bir deyişle AGI’ler,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
hızla insanları geride bırakarak,
03:02
quickly outpacing their human counterparts.
46
182678
2878
uyum sağlayabiliyor ve birçok görevi tamamlayabiliyor.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
AGI’nin nasıl görünebileceğine dair bir sürü çeşitli tahmin bulunuyor
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
ve başka bir duyarlı varlıkla Dünya’yı paylaşmanın
03:14
with another sentient entity.
49
194482
2127
insanlık için ne anlama gelebileceği konusunda.
03:18
AGIs might help us achieve our goals,
50
198653
2544
AGI’ler amaçlarımıza ulaşmamızda bize yardım edebilir,
03:21
they might regard us as inconsequential,
51
201197
2294
veya bizi önemsiz görebilirler
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
ya da bizi kaldırılması gereken bir engel olarak görebilirler.
03:26
So in terms of existential risk,
53
206869
2169
Varoluşsal risk konusunda,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
bu yeni teknolojinin değerlerinin
bizimkilerle uyumlu olması kaçınılmazdır.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Bu oldukça zor, çok fazla hassas ve düşünceli iş gerektirecek
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
felsefenin ve mühendislik ile ilgili olan bir mücadelede şeklidir.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Başarsak bile, AGI hala karışık farklı bir sonuca neden olabilir.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Bir AGI’ın insan hayatına derin bir saygı duyduğunu
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
ve tüm insanlığın sorunlarını çözmeye istekli olduğunu hayal edelim.
03:55
But to avoid becoming misaligned,
60
235231
2169
Ama yanlış yolla sapmaması için
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
inançlar konusunda oldukça katı bir şekilde geliştirildi.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Bu makinalar Dünya üzerindeki baskın güç olsa bile,
04:04
their strict values might become hegemonic,
63
244323
2711
hegemonik olabilecek katı değerleri,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
değişime oldukça karşı olan tek bir ideolojiye insanlığı kilitleyebilir.
04:14
History has taught us that no matter how enlightened
65
254792
2503
Tarih bize bir toplumun kendilerini aydınlık görmesine karşın,
04:17
a civilization thinks they are,
66
257295
1793
ne kadar aydınlanmış olursa olsun
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
gelecek nesillerin ahlak sınırlarına nadiren ulaştığını öğretti.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
Bu tarz bir değer kilidi insanlığın ahlaki gelişimine
04:27
humanity’s moral growth.
69
267638
1919
kalıcı olarak zarar verebilir veya kısıtlayabilir.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
AGI konusunda tonla belirsizlik var,
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
ve varoluşsal riskin gelecek yüzyılda nasıl olacağını
04:36
will play out over the next century.
72
276314
2002
tahmin etmek oldukça zor.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Yeni daha baskılayıcı endişelerin
04:41
might render these risks moot.
74
281569
2002
bu riskleri tartışmalı hale getirmesi pek muhtemel görünüyor.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Ama kesin olarak bizim yüzyılımızın
en önemlisi olduğunu söyleyemesek de
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
öyle görünüyor ki, vereceğimiz kararların insanlığın geleceği üzerinde
04:52
on humanity’s future.
77
292371
1502
büyük bir etkisi olabilir.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Belki de hepimiz gelecek bize bağlıymış gibi yaşamalıyız—
04:57
because actually, it just might.
79
297626
2211
gerçekten de belki gelecek bize bağlıdır.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7