How a Worm Could Save Humanity From Bad AI | Ramin Hasani | TED

34,713 views ・ 2024-10-22

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ozay Ozaydin Gözden geçirme: Eren Gokce
00:04
My wildest dream is to design artificial intelligence
0
4960
3086
En büyük hayalim, dostumuz olan
00:08
that is our friend, you know.
1
8046
1793
bir yapay zekâ tasarlamak.
00:10
If you have an AI system that helps us understand mathematics,
2
10382
3378
Eğer matematiği anlamamıza yardımcı olacak bir yapay zekâ sisteminiz varsa,
00:13
you can solve the economy of the world.
3
13802
2085
dünyanın ekonomisini çözebilirsiniz.
00:15
If you have an AI system that can understand humanitarian sciences,
4
15887
3629
Eğer insani bilimleri anlayabilen bir yapay zekâ sisteminiz varsa,
00:19
we can actually solve all of our conflicts.
5
19516
2169
aslında tüm çatışmalarımızı çözebiliriz.
00:21
I want this system to, given Einstein’s and Maxwell’s equations,
6
21726
4004
Bu sistemin Einstein’ın ve Maxwell’in denklemlerini alıp
00:25
take it and solve new physics, you know.
7
25730
2461
yeni fiziği çözmesini istiyorum.
00:28
If you understand physics, you can solve the energy problem.
8
28650
3629
Eğer fiziği anlarsanız, enerji sorununu çözebilirsiniz.
00:32
So you can actually design ways for humans
9
32320
4296
Böylece insanların kendilerinin daha iyi versiyonları olmaları için
00:36
to be the better versions of themselves.
10
36616
3170
yollar tasarlayabilirsiniz.
00:39
I'm Ramin Hasani.
11
39828
1209
Ben Ramin Hasani.
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
Liquid AI’nın kurucu ortağı ve CEO’suyum.
00:44
Liquid AI is an AI company built on top of a technology
13
44332
3796
Liquid AI, MIT’de icat ettiğim bir teknolojinin üzerine
00:48
that I invented back at MIT.
14
48128
2210
inşa edilmiş bir yapay zekâ şirketi.
00:50
It’s called “liquid neural networks.”
15
50380
2044
Buna “sıvı sinir ağları” deniyor.
00:52
These are a form of flexible intelligence,
16
52424
2377
Bunlar, temelde sabit olan
00:54
as opposed to today's AI systems that are fixed, basically.
17
54843
3420
günümüz yapay zekâ sistemlerinin aksine, esnek bir zekâ biçimidir.
00:58
So think about your brain.
18
58263
1835
Yani beyninizi düşünün.
01:00
You can change your thoughts.
19
60849
1793
Düşüncelerinizi değiştirebilirsiniz.
01:02
When somebody talks to you,
20
62684
1585
Biri sizinle konuştuğunda,
01:04
you can completely change the way you respond.
21
64311
2711
yanıt verme şeklinizi tamamen değiştirebilirsiniz.
01:07
You always have a mechanism that we call feedback in your system.
22
67022
4087
Sisteminizde her zaman geri bildirim dediğimiz bir mekanizma vardır.
01:11
So basically when you receive information from someone as an input,
23
71109
4296
Yani temel olarak birinden girdi olarak bilgi aldığınızda,
01:15
you basically process that information, and then you reply.
24
75447
3003
temel olarak bu bilgiyi işlersiniz ve sonra yanıt verirsiniz.
01:18
For liquid neural networks,
25
78450
1418
Sıvı sinir ağları için,
01:19
we simply got those feedback mechanisms, and we added that to the system.
26
79909
3921
basitçe bu geri bildirim mekanizmalarını aldık ve bunu sisteme ekledik.
01:23
So that means it has the ability of thinking.
27
83872
2794
Yani bu, düşünme yeteneğine sahip olduğu anlamına geliyor.
01:27
That property is inspired by nature.
28
87125
2461
Bu özellik doğadan esinlenilmiştir.
01:31
We looked into brains of animals and, in particular,
29
91796
3254
Hayvanların beyinlerini ve özellikle de “C. elegans” adı verilen
01:35
a very, very tiny worm called “C. elegans”
30
95050
3044
çok ama çok küçük bir solucanı inceledik.
01:38
The fascinating fact about the brain of the worm
31
98136
2586
Solucanın beyniyle ilgili büyüleyici gerçek,
01:40
is that it shares 75 percent of the genome that it has with humans.
32
100722
4421
sahip olduğu genomun yüzde 75′ini insanlarla paylaşıyor olması.
01:45
We have the entire genome mapped.
33
105185
2043
Genomun tamamının haritasını çıkardık.
01:47
So we understand a whole lot
34
107812
1794
Dolayısıyla sinir sisteminin işlevselliği hakkında da çok şey anlıyoruz.
01:49
about the functionality of its nervous system as well.
35
109648
3545
01:53
So if you understand the properties of cells in the worm,
36
113693
4421
Yani solucandaki hücrelerin özelliklerini anlarsak,
01:58
maybe we can build intelligent systems that are as good as the worm
37
118156
5672
belki solucan kadar iyi akıllı sistemler inşa edebilir
02:03
and then evolve them into systems that are better than even humans.
38
123870
4463
ve daha sonra bunları insanlardan bile daha iyi sistemlere dönüştürebiliriz.
02:08
The reason why we are studying nature is the fact that we can actually,
39
128792
3545
Doğayı incelememizin nedeni, aslında,
tasarlayabileceğiniz tüm olası algoritma türlerini keşfederek
02:12
having a shortcut through exploring all the possible kind of algorithms
40
132379
4129
kestirme bir yol bulabilmemizdir.
02:16
that you can design.
41
136549
1168
02:17
You can look into nature,
42
137759
1293
Doğaya bakabilirsiniz,
bu size verimli algoritmalara gerçekten
02:19
that would give you like, a shortcut
43
139052
1835
02:20
to really faster get into efficient algorithms
44
140929
2335
daha hızlı ulaşmak için bir kısayol sağlayacaktır
02:23
because nature has done a lot of search,
45
143264
1961
çünkü doğa çok fazla araştırma yaptı,
02:25
billions of years of evolution, right?
46
145266
1877
milyarlarca yıllık evrim, değil mi?
02:27
So we learned so much from those principles.
47
147143
2127
Yani bu ilkelerden çok şey öğrendik.
02:29
I just brought a tiny principle from the worm
48
149312
3337
Solucandan yapay sinir ağlarına
02:32
into artificial neural networks.
49
152691
1543
küçük bir prensip getirdim.
02:34
And now they are flexible,
50
154234
1251
Şimdi esnekler
02:35
and they can solve problems in an explainable way
51
155485
2336
ve sorunları daha önce mümkün olmayan
02:37
that was not possible before.
52
157821
1418
açıklanabilir bir şekilde çözebiliyorlar.
02:39
AI is becoming very capable, right?
53
159280
2253
Yapay zekâ çok yetenekli hâle geliyor, değil mi?
02:41
The reason why AI is hard to regulate
54
161574
2878
YZ’yi düzenlemenin zor olmasının nedeni,
02:44
is because we cannot understand, even the people who design the systems,
55
164494
3879
anlayamıyor olmamız, sistemleri tasarlayan insanlar bile
02:48
we don't understand those systems.
56
168415
1626
bu sistemleri anlamıyor.
02:50
They are black boxes.
57
170083
1376
Onlar kara kutular.
02:52
With Liquid, because we are fundamentally using mathematics
58
172210
4087
Liquid ile, temelde anlaşılabilir matematik kullandığımız için,
02:56
that are understandable,
59
176339
1418
sistemin hangi bölümünün
02:57
we have tools to really understand
60
177757
1627
neyden sorumlu olduğunu
02:59
and pinpoint which part of the system is responsible for what,
61
179426
4004
gerçekten anlamak ve saptamak için araçlarımız var,
03:03
you're designing white box systems.
62
183430
2043
beyaz kutu sistemleri tasarlıyorsunuz.
03:05
So if you have systems that you can understand their behavior,
63
185473
2920
Yani davranışlarını anlayabildiğiniz sistemleriniz varsa,
03:08
that means even if you scale them into something very, very intelligent,
64
188435
4004
bu onları çok çok akıllı bir şeye ölçeklendirseniz bile, anladığınız için
03:12
you can always have a lot of control over that system
65
192480
3212
bu sistem üzerinde her zaman çok fazla kontrole
03:15
because you understand it.
66
195692
1418
sahip olabileceğiniz anlamına gelir.
03:17
You can never let it go rogue.
67
197110
2085
Asla yoldan çıkmasına izin veremezsiniz.
03:19
So all of the crises we are dealing with right now,
68
199195
3087
Yani şu anda uğraştığımız tüm krizler,
03:22
you know, doomsday kind of scenarios,
69
202323
1794
bilirsiniz, kıyamet günü senaryoları,
03:24
is all about scaling a technology that we don't understand.
70
204159
3503
tamamen anlamadığımız bir teknolojiyi ölçeklendirmekle ilgili.
03:27
With Liquid, our purpose is to really calm people down
71
207704
3211
Liquid ile amacımız insanları gerçekten sakinleştirmek
03:30
and show people that, hey,
72
210957
1460
ve insanlara, hey,
çok güçlü sistemlere sahip olabileceğinizi,
03:32
you can have very powerful systems,
73
212459
2502
bunların çalışma mekanizmaları üzerinde çok fazla kontrol
03:35
that you have a lot of control and visibility
74
215003
2377
ve görünürlüğe sahip olduğunuzu göstermektir.
03:37
into their working mechanisms.
75
217422
2002
03:39
The gift of having something [with] superintelligence is massive,
76
219466
3378
Süper zekâya sahip bir şeye sahip olma hediyesi çok büyük
03:42
and it can enable a lot of things for us.
77
222886
2544
ve bizim için pek çok şeyi mümkün kılabilir.
03:45
But at the same time,
78
225472
1126
Ancak aynı zamanda
03:46
we need to have control over that technology.
79
226639
2128
bu teknoloji üzerinde kontrol sahibi olmamız gerekiyor.
03:48
Because this is the first time that we’re going to have a technology
80
228767
3211
Çünkü ilk kez tüm insanlığın toplamından
03:52
that is going to be better than all of humanity combined.
81
232020
2711
daha iyi olacak bir teknolojiye sahip olacağız.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7