The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,799,698 views ・ 2023-04-20

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ozay Ozaydin Gözden geçirme: esra kurul
00:03
We started OpenAI seven years ago
0
3875
2503
OpenAI’yi yedi yıl önce kurduk
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
çünkü yapay zeka alanında gerçekten ilginç bir şeyler olduğunu hissettik
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
ve bunu olumlu bir yöne yönlendirmeye yardımcı olmak istedik.
00:15
It's honestly just really amazing to see
3
15220
2085
O zamandan bu yana tüm bu alanın
00:17
how far this whole field has come since then.
4
17347
3086
ne kadar ilerlediğini görmek gerçekten şaşırtıcı.
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
Raymond gibi insanların bizim ve diğerlerinin geliştirdiği teknolojiyi
00:24
who are using the technology we are building, and others,
6
24104
2836
pek çok harika şey için kullandığını duymak
00:26
for so many wonderful things.
7
26982
2127
gerçekten çok sevindirici.
00:29
We hear from people who are excited,
8
29150
2503
Heyecan duyan,
00:31
we hear from people who are concerned,
9
31653
1835
endişe duyan
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
ve bu iki duyguyu aynı anda hisseden kişileri duyuyoruz.
00:36
And honestly, that's how we feel.
11
36533
2252
Dürüst olmak gerekirse, biz de böyle hissediyoruz.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
Her şeyden önce, şu anda dünya olarak toplumumuz için
00:44
where we as a world are going to define a technology
13
44374
4421
ileride çok önemli olacak bir teknolojiyi
00:48
that will be so important for our society going forward.
14
48795
3086
tanımlayacağımız tarihi bir döneme girdiğimizi hissediyorum.
00:52
And I believe that we can manage this for good.
15
52924
2628
Bunu iyi bir şekilde yönetebileceğimize inanıyorum.
00:56
So today, I want to show you the current state of that technology
16
56845
4171
Bu nedenle bugün size bu teknolojinin mevcut durumunu
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
ve değer verdiğimiz bazı temel tasarım ilkelerini göstermek istiyorum.
01:09
So the first thing I'm going to show you
18
69983
1918
Size göstereceğim ilk şey,
01:11
is what it's like to build a tool for an AI
19
71943
2086
bir insan için araç geliştirmek yerine
01:14
rather than building it for a human.
20
74029
1876
bir yapay zeka için araç geliştirmenin nasıl bir şey olduğu.
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
Görüntü üreten yeni bir DALL-E modelimiz var
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
ve bunu ChatGPT’nin sizin adınıza kullanacağı bir uygulama olarak sunuyoruz.
01:25
And you can do things like ask, you know,
23
85248
2461
TED sonrası güzel bir yemek önermek
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
ve bunun resmini çizmek gibi şeyler yapabilirsiniz.
01:35
(Laughter)
25
95216
1419
(Kahkaha)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
Artık ChatGPT’den elde ettiğiniz tüm fikir ve yaratıcılığa
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
ve sizin için ayrıntılarla ilgilenme özelliklerine sahipsiniz.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
İşte başlıyoruz, sadece yemek fikri değil,
01:49
but a very, very detailed spread.
29
109773
3587
çok ama çok detaylı bir sunum.
01:54
So let's see what we're going to get.
30
114110
2044
Bakalım ne alacağız.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
Ancak ChatGPT bu durumda sadece görüntü oluşturmaz --
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
pardon, metin oluşturmaz, aynı zamanda bir görüntü de oluşturur.
02:02
And that is something that really expands the power
33
122827
2419
Bu, niyetinizi gerçekleştirme açısından
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
sizin adınıza yapabileceklerinin gücünü gerçekten artıran bir şeydir.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
Belirtmek isterim ki, bunların hepsi canlı bir demo.
02:10
This is all generated by the AI as we speak.
36
130835
2169
Biz konuşurken bunların hepsi AI tarafından üretiliyor.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
Yani aslında ne göreceğimizi bile bilmiyorum.
02:16
This looks wonderful.
38
136216
2294
Bu harika görünüyor.
02:18
(Applause)
39
138510
3712
(Alkışlar)
02:22
I'm getting hungry just looking at it.
40
142514
1877
Baktıkça acıkıyorum.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
Şimdi ChatGPT’yi başka araçlarla da genişlettik,
02:27
for example, memory.
42
147519
1168
örneğin bellek.
02:28
You can say "save this for later."
43
148728
2795
“Bunu sonraya sakla” diyebilirsiniz.
02:33
And the interesting thing about these tools
44
153233
2043
Bu araçlarla ilgili ilginç olan şey,
02:35
is they're very inspectable.
45
155318
1377
denetlenmeye çok açık olmalarıdır.
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
“DALL-E uygulamasını kullanın” yazan küçük bir pencere açılıyor.
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
Bu arada, bu önümüzdeki aylarda tüm ChatGPT kullanıcılarına geliyor.
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
Kaputun altına bakabilir ve aslında yaptığı şeyin
tıpkı bir insan gibi bir komut yazmak olduğunu görebilirsiniz.
02:46
was write a prompt just like a human could.
49
166621
2169
02:48
And so you sort of have this ability to inspect
50
168790
2628
Böylece makinenin bu araçları nasıl kullandığını
02:51
how the machine is using these tools,
51
171459
2086
denetleme olanağına sahip oluyorsunuz
ve bu da onlara geri bildirim sağlamamıza olanak tanıyor.
02:53
which allows us to provide feedback to them.
52
173586
2086
02:55
Now it's saved for later,
53
175714
1209
Şimdi daha sonrası için kaydedildi
02:56
and let me show you what it's like to use that information
54
176965
2878
ve size bu bilgileri kullanmanın ve diğer uygulamalarla
02:59
and to integrate with other applications too.
55
179884
2503
entegre etmenin nasıl bir şey olduğunu göstereyim.
03:02
You can say,
56
182387
2210
“Şimdi daha önce
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
önerdiğim lezzetli şey için bir alışveriş listesi hazırla”
03:10
I was suggesting earlier.”
58
190186
1835
diyebilirsiniz.
03:12
And make it a little tricky for the AI.
59
192021
2128
Yapay zeka için biraz daha zorlaştıralım.
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
“Tüm TED izleyicileri için bunu tweetle.”
03:20
(Laughter)
61
200655
2252
(Kahkaha)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
Eğer bu harika yemeği yaparsanız,
03:25
I definitely want to know how it tastes.
63
205410
2044
tadının nasıl olduğunu kesinlikle bilmek isterim.
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
Ancak ChatGPT’nin, herhangi bir durumda hangisini kullanacağını
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
açıkça söylememe gerek kalmadan tüm bu farklı araçları seçtiğini görebilirsiniz.
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
Bence bu, kullanıcı arayüzü hakkında yeni bir düşünme biçimini gösteriyor.
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
Şöyle düşünmeye çok alışkınız: Bu uygulamalara sahibiz,
aralarında tıklıyoruz, aralarında kopyala/yapıştır yapıyoruz
03:44
we click between them, we copy/paste between them,
68
224763
2335
ve genellikle menüleri ve tüm seçenekleri bildiğiniz sürece
03:47
and usually it's a great experience within an app
69
227098
2294
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
bir uygulama içinde harika bir deneyim yaşıyorsunuz.
03:52
Yes, I would like you to.
71
232395
1293
Evet, isterim.
03:53
Yes, please.
72
233730
1126
Evet, lütfen.
03:54
Always good to be polite.
73
234898
1251
Kibar olmak her zaman iyidir.
03:56
(Laughter)
74
236149
2628
(Kahkaha)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
Araçların üzerinde bu birleşik dil ara yüzüne sahip olarak,
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
yapay zeka tüm bu ayrıntıları sizden alabilir.
04:10
So you don't have to be the one
77
250538
1543
Yani ne olması gerektiğine dair
04:12
who spells out every single sort of little piece
78
252123
2294
her bir küçük parçayı açıklayan
04:14
of what's supposed to happen.
79
254459
1543
kişi olmak zorunda değilsiniz.
04:16
And as I said, this is a live demo,
80
256419
1710
Dediğim gibi, bu canlı bir demo,
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
bu yüzden bazen beklenmedik şeyler başımıza gelebilir.
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
Ama hazır başlamışken Instacart alışveriş listesine de bir göz atalım.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
Instacart’a bir malzeme listesi gönderdiğimizi görebilirsiniz.
04:29
Here's everything you need.
84
269349
1543
İhtiyacınız olan her şey burada.
04:30
And the thing that's really interesting
85
270892
1877
Gerçekten ilginç olan şey,
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
geleneksel kullanıcı arayüzünün hala çok değerli olması, değil mi?
04:35
If you look at this,
87
275772
1877
Buna bakarsanız,
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
yine de tıklayabilir ve gerçek miktarları değiştirebilirsiniz.
04:41
And that's something that I think shows
89
281986
1877
Bence bu, geleneksel kullanıcı arayüzlerinin
04:43
that they're not going away, traditional UIs.
90
283863
3253
ortadan kalkmayacağını gösteren bir şey.
Sadece onları inşa etmek için yeni ve geliştirilmiş bir yöntemimiz var.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
Şimdi incelememiz için hazırlanmış bir tweet var,
04:52
which is also a very important thing.
93
292956
1793
ki bu da çok önemli bir şey.
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
“Çalıştır”a tıklayabiliriz ve işte oradayız, yöneticiyiz, denetleyebiliyoruz,
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
istersek yapay zekanın çalışmasını değiştirebiliyoruz.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
Yani bu konuşmadan sonra buna kendiniz erişebileceksiniz.
05:17
And there we go.
97
317647
1710
İşte başlıyoruz.
05:19
Cool.
98
319816
1126
Güzel.
05:22
Thank you, everyone.
99
322485
1168
Herkese teşekkür ederim.
05:23
(Applause)
100
323653
3003
(Alkışlar)
05:29
So we’ll cut back to the slides.
101
329367
1627
Slaytlara geri dönelim.
05:32
Now, the important thing about how we build this,
102
332954
3587
Şimdi, bunu nasıl inşa ettiğimizle ilgili önemli olan şey,
05:36
it's not just about building these tools.
103
336583
2210
sadece bu araçları inşa etmek değil.
05:38
It's about teaching the AI how to use them.
104
338793
2252
Yapay zekaya bunları nasıl kullanacağını öğretmekle ilgili.
05:41
Like, what do we even want it to do
105
341087
1710
Mesela, bu çok üst düzey soruları sorduğumuzda
05:42
when we ask these very high-level questions?
106
342839
2419
ne yapmasını istiyoruz?
05:45
And to do this, we use an old idea.
107
345258
2669
Bunu yapmak için de eski bir fikri kullanıyoruz.
Alan Turing’in 1950′de Turing testiyle ilgili yazdığı makaleye geri dönerseniz,
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
05:51
you'll never program an answer to this.
109
351598
2043
asla bir cevap programlayamayacağınızı söylüyor.
05:53
Instead, you can learn it.
110
353683
1627
Bunun yerine, öğrenebilirsiniz.
05:55
You could build a machine, like a human child,
111
355351
2169
Bir makine yapabilirsiniz, tıpkı bir çocuk gibi,
05:57
and then teach it through feedback.
112
357520
2127
ve onu geri beslemeyle eğitebilirsiniz.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
Bir şeyler denedikçe ve iyi ya da kötü şeyler yaptıkça
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
ödül ve ceza veren bir insan öğretmene sahipsiniz.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
ChatGPT’yi tam olarak bu şekilde eğitiyoruz.
06:08
It's a two-step process.
116
368239
1168
İki aşamalı bir süreç.
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
İlk olarak, denetimsiz bir öğrenme süreci aracılığıyla Turing’in
06:12
through an unsupervised learning process.
118
372535
1960
çocuk makine diyeceği şeyi üretiyoruz.
06:14
We just show it the whole world, the whole internet
119
374495
2461
Bunu tüm dünyaya, tüm internete gösteriyoruz
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
ve “Daha önce hiç görmediğin bir metinle sonra ne olacağını tahmin et” diyoruz.
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
Bu süreç ona her türlü harika becerileri kazandırıyor.
06:23
For example, if you're shown a math problem,
122
383212
2086
Örneğin, size bir matematik problemi gösterilirse,
06:25
the only way to actually complete that math problem,
123
385298
2544
bu matematik problemini gerçekten tamamlamanın,
06:27
to say what comes next,
124
387884
1334
bir sonraki adımın ne olduğunu söylemenin,
06:29
that green nine up there,
125
389218
1293
yani şu yeşil dokuzu söylemenin
06:30
is to actually solve the math problem.
126
390511
2294
tek yolu matematik problemini gerçekten çözmektir.
06:34
But we actually have to do a second step, too,
127
394432
2169
Ama ikinci bir adım daha atmamız gerekiyor,
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
o da AI’a bu becerilerle ne yapacağını öğretmek.
06:39
And for this, we provide feedback.
129
399187
1668
Bunun için de geri bildirim yapıyoruz.
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
AI’ın çok şeyi denemesini, bize çok öneri sunmasını
ve sonra birinin bunları değerlendirerek “Bu, bundan daha iyi” demesini sağlıyoruz.
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
Bu da sadece YZ’nin söylediği belirli bir şeyi değil,
daha da önemlisi, YZ’nin bu cevabı üretmek için kullandığı tüm süreci güçlendirir.
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
06:54
And this allows it to generalize.
134
414243
1585
Bu da genelleme yapabilmesini sağlar.
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
Öğretmesine, niyetinizi çıkarmasına
ve daha önce görmediği, geri bildirim almadığı senaryolarda
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
07:00
that it hasn't received feedback.
137
420750
1585
uygulamasına olanak tanır.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
Şimdi, bazen yapay zekaya öğretmemiz gereken şeyler
07:05
are not what you'd expect.
139
425171
1543
beklediğiniz gibi olmayabilir.
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
Örneğin, GPT-4′ü Khan Academy’ye ilk gösterdiğimizde,
07:09
they said, "Wow, this is so great,
141
429884
1627
“Vay canına, bu çok harika,
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
öğrencilere harika şeyler öğretebileceğiz.
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
Tek bir sorun var, öğrencilerin hesabını iki kez kontrol etmiyor.
07:17
If there's some bad math in there,
144
437809
1626
Eğer içinde yanlış hesap varsa,
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
bir artı bir eşittir üçmüş gibi davranacak ve bunu seve seve yapacaktır.”
07:23
So we had to collect some feedback data.
146
443523
2294
Bu yüzden bazı geri bildirim verisi toplamamız gerekti.
07:25
Sal Khan himself was very kind
147
445858
1544
Sal Khan’ın kendisi çok nazikti
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
ve ekibimizle birlikte makineye geri bildirim sağlamak için
07:30
alongside our team.
149
450780
1501
20 saatini ayırdı.
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
Birkaç ay boyunca yapay zekaya şunu öğretmeyi başardık:
07:35
"Hey, you really should push back on humans
151
455910
2044
“Hey, bu tür özel senaryolarda
07:37
in this specific kind of scenario."
152
457954
2044
insanları gerçekten geri püskürtmelisin.”
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
Aslında bu şekilde modellerde pek çok iyileştirme yaptık.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
ChatGPT’de baş parmağınızı aşağı doğru ittiğinizde,
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
bu aslında ekibimize “İşte geri bildirim toplamanız gereken bir zayıflık alanı”
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
demek için bir tür yarasa sinyali göndermek gibidir.
07:55
And so when you do that,
157
475388
1168
Bunu yaptığınızda,
07:56
that's one way that we really listen to our users
158
476597
2294
kullanıcılarımızı gerçekten dinlememizin ve herkes için
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
daha kullanışlı bir şey inşa ettiğimizden emin olmamızın bir yolu budur.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
Şimdi, yüksek kaliteli geri bildirim vermek zor bir şeydir.
08:07
If you think about asking a kid to clean their room,
161
487025
2460
Bir çocuktan odasını temizlemesini istediğinizi düşünürseniz,
08:09
if all you're doing is inspecting the floor,
162
489485
2711
yaptığınız tek şey zemini kontrol etmekse,
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
ona tüm oyuncakları dolaba tıkmayı öğretip öğretmediğinizi bilemezsiniz.
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
Bu arada, DALL-E tarafından oluşturulmuş güzel bir görüntü.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
Aynı mantık yapay zeka için de geçerli.
08:24
As we move to harder tasks,
166
504667
1794
Daha zor görevlere geçtikçe,
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
yüksek kaliteli geri bildirim sağlama becerimizi ölçeklendirmemiz gerekecek.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
Ancak bunun için yapay zekanın kendisi yardımcı olmaktan mutluluk duyar.
08:34
It's happy to help us provide even better feedback
169
514761
2335
Zaman geçtikçe daha da iyi geri bildirim vermemize
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
ve makineyi denetleme yetimizi artırmamıza yardımcı olmaktan mutluluk duyuyor.
08:40
And let me show you what I mean.
171
520767
1543
Size ne demek istediğimi göstereyim.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
Örneğin, GPT-4′e şöyle bir soru sorabilirsiniz:
08:47
of how much time passed between these two foundational blogs
173
527356
3295
Denetimsiz öğrenme ve insan geribildiriminden
08:50
on unsupervised learning
174
530693
1668
öğrenme hakkındaki bu iki temel blog arasında
08:52
and learning from human feedback.
175
532403
1794
ne kadar zaman geçti?
08:54
And the model says two months passed.
176
534197
2460
Model iki ay geçtiğini söylüyor.
08:57
But is it true?
177
537075
1167
Ama bu doğru mu?
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
Mesela, bu modeller yüzde 100 güvenilir değil,
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
ancak her geri bildirim yaptığımızda daha iyi hale geliyorlar.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
Ama aslında yapay zekayı gerçekleri kontrol etmek için kullanabiliriz.
09:07
And it can actually check its own work.
181
547543
1877
Aslında kendi çalışmasını kontrol edebilir.
09:09
You can say, fact-check this for me.
182
549462
1877
Benim için kontrol et diyebilirsiniz.
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
Şimdi, bu durumda, yapay zekaya yeni bir araç verdim.
09:16
This one is a browsing tool
184
556427
1710
Bu, modelin arama sorguları oluşturabildiği
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
ve web sayfalarına tıklayabildiği bir tarama aracıdır.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
Bunu yaparken aslında tüm düşünce zincirini yazar.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
Sadece bunu arayacağım diyor ve gerçekten arama yapıyor.
09:28
It then it finds the publication date and the search results.
188
568856
3128
Daha sonra yayın tarihini ve arama sonuçlarını bulur.
09:32
It then is issuing another search query.
189
572026
1919
Daha sonra başka bir arama yapıyor.
09:33
It's going to click into the blog post.
190
573945
1877
Blog yazısına tıklayacak.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
Tüm bunları yapabilirsiniz, ancak bu çok sıkıcı bir iş.
09:38
It's not a thing that humans really want to do.
192
578741
2211
Bu insanların gerçekten yapmak istediği bir şey değil.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
Sürücü koltuğunda olmak
işi keyfinize göre üç kez bile kontrol edebileceğiniz
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
bu yönetici pozisyonunda olmak çok daha eğlenceli.
09:45
triple-check the work.
195
585998
1210
09:47
And out come citations
196
587208
1501
Alıntılar ortaya çıkıyor,
09:48
so you can actually go
197
588709
1168
böylece aslında gidip
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
tüm bu mantık zincirinin herhangi bir parçasını kolayca doğrulayabilirsiniz.
09:53
And it actually turns out two months was wrong.
199
593673
2210
Aslında iki ayın yanlış olduğu ortaya çıktı.
09:55
Two months and one week,
200
595883
2169
İki ay ve bir hafta,
09:58
that was correct.
201
598094
1251
doğru olan bu.
10:00
(Applause)
202
600888
3837
(Alkış)
10:07
And we'll cut back to the side.
203
607645
1502
Slayta dönelim.
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
Tüm bu süreçte benim için en ilginç olan şey,
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
bunun bir insan ile yapay zeka arasındaki çok adımlı bir işbirliği olması.
10:17
Because a human, using this fact-checking tool
206
617029
2461
Çünkü bu kontrol aracını kullanan biri,
10:19
is doing it in order to produce data
207
619532
2210
bunu başka bir yapay zekanın
10:21
for another AI to become more useful to a human.
208
621742
3170
bir insana daha faydalı olabilmesi için veri üretmek amacıyla yapıyor.
10:25
And I think this really shows the shape of something
209
625454
2545
Bence bu, gelecekte çok daha yaygın olmasını beklememiz gereken,
10:28
that we should expect to be much more common in the future,
210
628040
3087
insanların ve makinelerin bir soruna nasıl uyduklarını
10:31
where we have humans and machines kind of very carefully
211
631127
2711
ve bu sorunu nasıl çözmek istediğimizi çok dikkatli
10:33
and delicately designed in how they fit into a problem
212
633880
3503
ve hassas bir şekilde tasarladığımız
10:37
and how we want to solve that problem.
213
637425
1918
bir şeyin şeklini gösteriyor.
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
İnsanların yönetimi, gözetimi ve geri bildirimi sağladığından
10:42
the feedback,
215
642847
1168
ve makinelerin denetlenebilir
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
ve güvenilir bir şekilde çalıştığından
10:46
and trustworthy.
217
646809
1126
emin oluyoruz.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
Birlikte aslında daha da güvenilir makineler yaratabiliyoruz.
Bu süreci doğru bir şekilde yürütürsek,
10:51
And I think that over time, if we get this process right,
219
651522
2711
zaman içinde imkansız sorunları çözebileceğimizi düşünüyorum.
10:54
we will be able to solve impossible problems.
220
654233
2127
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
Ne kadar imkansız bir şeyden bahsettiğimi anlamanız için,
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
bilgisayarlarla etkileşimimizin neredeyse her yönünü
11:03
of how we interact with computers.
223
663242
2378
yeniden düşünebileceğimizi düşünüyorum.
11:05
For example, think about spreadsheets.
224
665620
2502
Örneğin, hesap tablolarını düşünün.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
O zamandan beri bir şekilde varlar, 40 yıl önce VisiCalc ile diyelim.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
Bu süre içinde çok fazla değiştiklerini sanmıyorum.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
İşte son 30 yılda arXiv’deki tüm yapay zeka makalelerinin
11:22
for the past 30 years.
228
682178
1168
bir tablosu.
11:23
There's about 167,000 of them.
229
683346
1960
Yaklaşık 167,000 tane var.
11:25
And you can see there the data right here.
230
685348
2878
Verileri burada görebilirsiniz.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
Ancak size ChatGPT’nin böyle bir veri setini nasıl analiz edeceğini göstereyim.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
ChatGPT’ye başka bir araca erişim verebiliriz,
11:41
this one a Python interpreter,
233
701197
1460
bu bir Python yorumlayıcısı,
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
böylece tıpkı bir veri bilimcisinin yapacağı gibi kod çalıştırabilir.
11:46
And so you can just literally upload a file
235
706661
2335
Yani tam olarak bir dosya yükleyebilir
11:48
and ask questions about it.
236
708996
1335
ve sorular sorabilirsiniz.
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
Çok yardımcı bir şekilde, bilirsiniz, dosyanın adını bilir ve
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
“Oh, bu CSV,” virgülle ayrılmış değer dosyası,
11:56
"I'll parse it for you."
239
716420
1335
“Sizin için ayrıştıracağım.”
11:57
The only information here is the name of the file,
240
717755
2794
Buradaki tek bilgi dosyanın adı,
12:00
the column names like you saw and then the actual data.
241
720591
3671
gördüğünüz gibi sütun adları ve ardından gerçek verilerdir.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
Buradan, bu sütunların gerçekte ne anlama geldiği çıkarılabilir.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
Sanki o anlamsal bilgi orada yokmuş gibi.
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
“Evet, arXiv insanların makale gönderdiği bir site ve bu nedenle
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
bu şeylerin ne olduğu ve bunların tamsayı olduğu
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
ve bu nedenle makaledeki yazar sayısı olduğu”
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
bilgisini bir araya getirmek zorundadır.
tüm bunlar gibi, bunu da bir insanın yapması gerekir
12:23
like all of that, that’s work for a human to do,
248
743114
2252
ve AI bu konuda yardımcı olmaktan mutluluk duyar.
12:25
and the AI is happy to help with it.
249
745408
1751
12:27
Now I don't even know what I want to ask.
250
747159
2002
Şimdi ne sormak istediğimi bile bilmiyorum.
12:29
So fortunately, you can ask the machine,
251
749203
3003
Neyse ki, makineye
“Bazı keşif grafikleri yapabilir misin?” diye sorabilirsiniz.
12:32
"Can you make some exploratory graphs?"
252
752248
1877
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
Bir kez daha, bu, arkasında çok fazla niyet olan süper üst düzey bir talimattır.
12:41
But I don't even know what I want.
254
761507
1668
Ama ben ne istediğimi bile bilmiyorum.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
AI da neyle ilgilenebileceğime dair bir çıkarım yapmak zorunda.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
Bence bazı iyi fikirler ortaya çıkıyor.
12:48
So a histogram of the number of authors per paper,
257
768472
2336
Yani makale başına yazar sayısı histogramı,
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
yıl başına makale zaman serisi, makale başlıklarının kelime bulutu.
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
Sanırım tüm bunları görmek oldukça ilginç olacak.
12:56
And the great thing is, it can actually do it.
260
776522
2169
Harika olan şey, bunu gerçekten yapabiliyor olması.
12:58
Here we go, a nice bell curve.
261
778691
1460
İşte başlıyoruz, güzel bir çan eğrisi.
13:00
You see that three is kind of the most common.
262
780151
2169
Üçün en yaygın olanı olduğunu görüyorsunuz.
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
Daha sonra her yıl gazetelerin bu güzel grafiğini oluşturacak.
13:08
Something crazy is happening in 2023, though.
264
788117
2294
Yine de 2023′te çılgınca bir şey oluyor.
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
Görünüşe göre üstel bir seyir izliyorduk ve uçurumdan düştük.
13:13
What could be going on there?
266
793539
1460
Orada neler oluyor olabilir?
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
Bu arada, tüm bunlar Python kodu, inceleyebilirsiniz.
13:17
And then we'll see word cloud.
268
797752
1459
Sonra kelime bulutunu göreceğiz.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
Böylece bu başlıklarda görünen tüm bu harika şeyleri görebilirsiniz.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
Ama şu 2023 meselesi beni çok mutsuz ediyor.
13:25
It makes this year look really bad.
271
805634
1711
Bu yılı gerçekten kötü gösteriyor.
13:27
Of course, the problem is that the year is not over.
272
807345
2877
Tabii ki sorun, yılın henüz bitmemiş olması.
13:30
So I'm going to push back on the machine.
273
810222
2878
Bu yüzden makineyi geri iteceğim.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[Bekle bu adil değil!!!
13:34
2023 isn't over.
275
814727
1293
2023 daha bitmedi.
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
2022′deki makalelerin yüzde kaçı 13 Nisan’a kadar gönderildi?]
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
Sanırım 13 Nisan son tarihti.
13:47
Can you use that to make a fair projection?
278
827656
4922
Bunu adil bir projeksiyon yapmak için kullanabilir misiniz?
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
Göreceğiz, bu iddialı bir tür.
13:57
(Laughter)
280
837083
1126
(Gülüşmeler)
13:59
So you know,
281
839877
1251
Yani yine
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
makineden istediğim daha fazla şey varmış gibi hissediyorum.
14:05
I really wanted it to notice this thing,
283
845049
2502
Bu şeyi fark etmesini gerçekten istedim,
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
belki de sihirli bir şekilde istediğimin
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
bu olduğu sonucuna varması biraz abartılı olabilir.
14:14
But I inject my intent,
286
854183
1627
Ancak niyetimi enjekte ediyorum,
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
bu ek parçayı, bilirsiniz, rehberlik ediyorum.
14:20
And under the hood,
288
860564
1168
Kaputun altında,
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
AI sadece tekrar kod yazıyor, bu yüzden ne yaptığını incelemek istiyorsanız,
14:25
it's very possible.
290
865403
1251
bu çok mümkün.
14:26
And now, it does the correct projection.
291
866654
3628
Şimdi, doğru projeksiyonu yapıyor.
14:30
(Applause)
292
870282
5005
(Alkışlar)
14:35
If you noticed, it even updates the title.
293
875287
2169
Fark ettiyseniz, başlığı bile güncelliyor.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
Bunu ben istemedim, ama ne istediğimi biliyorum.
14:41
Now we'll cut back to the slide again.
295
881794
2544
Şimdi tekrar slayta döneceğiz.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
Bu slaytta bir benzetme gösterilmektedir nasıl düşündüğümüzü...
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
Gelecekte bu teknolojiyi nasıl kullanabileceğimize dair bir vizyon.
14:54
A person brought his very sick dog to the vet,
298
894849
3712
Bir kişi çok hasta olan köpeğini veterinere getirmiş
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
ve veteriner kötü bir karar vererek “Bekleyelim ve görelim” demiş.
15:01
And the dog would not be here today had he listened.
300
901897
2795
Dinlemiş olsaydı köpek bugün burada olmazdı.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
Bu arada, GPT-4′e kan testini,
15:07
like, the full medical records, to GPT-4,
302
907653
2586
yani tüm tıbbi kayıtları verdi ve
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
“Ben veteriner değilim, bir profesyonelle konuşmanız gerekiyor,
15:13
here are some hypotheses."
304
913492
1710
işte bazı hipotezler” dedi.
15:15
He brought that information to a second vet
305
915786
2127
Bu bilgiyi köpeğin hayatını kurtarmak için kullanan
15:17
who used it to save the dog's life.
306
917913
1835
ikinci bir veterinere götürdü.
15:21
Now, these systems, they're not perfect.
307
921292
2252
Şimdi, bu sistemler mükemmel değil.
15:23
You cannot overly rely on them.
308
923544
2336
Onlara fazla güvenemezsiniz.
15:25
But this story, I think, shows
309
925880
3712
Ama bence bu hikaye,
15:29
that a human with a medical professional
310
929592
3044
bir tıp uzmanıyla ve beyin fırtınası
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
ortağı olarak ChatGPT ile bir insanın,
başka türlü gerçekleşmeyecek bir sonuca ulaşabildiğini gösteriyor.
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
15:38
I think this is something we should all reflect on,
313
938476
2419
Bence bu, bu sistemleri dünyamıza nasıl entegre edeceğimizi düşünürken
15:40
think about as we consider how to integrate these systems
314
940895
2711
hepimizin üzerinde düşünüp, kafa yorması gereken bir konu.
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
Gerçekten derinden inandığım bir şey varsa
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
o da AI’ı doğru şekilde kullanmanın herkesin katılımını gerektireceğidir.
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
Bu, nasıl yer almasını istediğimize karar vermek,
15:53
that's for setting the rules of the road,
319
953365
1961
yolun kurallarını belirlemek,
bir AI’ın ne yapıp ne yapmayacağını belirlemek içindir.
15:55
for what an AI will and won't do.
320
955367
2044
15:57
And if there's one thing to take away from this talk,
321
957453
2502
Bu konuşmadan çıkarılacak bir şey varsa,
15:59
it's that this technology just looks different.
322
959997
2211
o da bu teknolojinin farklı göründüğüdür.
16:02
Just different from anything people had anticipated.
323
962208
2502
İnsanların beklediğinden çok farklıydı.
16:04
And so we all have to become literate.
324
964710
1835
Bu yüzden hepimiz okuryazar olmak zorundayız.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
Dürüst olmak gerekirse, ChatGPT’yi çıkarmamızın nedenlerinden biri de bu.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
Birlikte, yapay genel zekânın tüm insanlığa
16:12
of ensuring that artificial general intelligence
327
972718
2252
fayda sağlaması yönündeki OpenAI misyonunu
16:14
benefits all of humanity.
328
974970
1877
başarabileceğimize inanıyorum.
16:16
Thank you.
329
976847
1168
Teşekkür ederim.
16:18
(Applause)
330
978057
6965
(Alkışlar)
16:33
(Applause ends)
331
993322
1168
(Alkışlar sona erer)
16:34
Chris Anderson: Greg.
332
994532
1334
Chris Anderson: Greg.
16:36
Wow.
333
996242
1167
Vay canına.
16:37
I mean ...
334
997868
1126
Yani...
16:39
I suspect that within every mind out here
335
999662
3753
Buradaki her zihnin içinde bir sersemleme hissi
16:43
there's a feeling of reeling.
336
1003457
2503
olduğundan şüpheleniyorum.
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
Sanırım bunu izleyen çok sayıda insan,
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
“Aman Tanrım, çalışma şeklimle ilgili
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
hemen hemen her şeyi yeniden düşünmem gerekiyor” diye düşünüyor.
16:55
Like, there's just new possibilities there.
340
1015386
2002
Sanki orada yeni olasılıklar varmış gibi.
16:57
Am I right?
341
1017388
1168
Haksız mıyım?
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
İşleri yapma şeklimizi yeniden düşünmek zorunda olduklarını kim düşünüyor?
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
Evet, yani, bu harika,
17:03
but it's also really scary.
344
1023561
2002
ama aynı zamanda gerçekten korkutucu.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
Hadi konuşalım Greg, konuşalım.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
Sanırım ilk sorum
17:10
how the hell have you done this?
347
1030901
1585
bunu nasıl başardığın olacak.
17:12
(Laughter)
348
1032486
1251
(Gülüşmeler)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
OpenAI’nin birkaç yüz çalışanı var.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
Google’ın yapay zeka üzerinde çalışan binlerce çalışanı var.
17:21
Why is it you who's come up with this technology
351
1041996
3503
Neden dünyayı şok eden bu teknolojiyi
17:25
that shocked the world?
352
1045541
1168
bulan sizsiniz?
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
Greg Brockman: Gerçek şu ki,
hepimiz devlerin omuzları üzerinde yükseliyoruz, buna şüphe yok.
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
Hesaplamadaki ilerlemeye,
17:31
If you look at the compute progress,
355
1051797
1752
algoritmik ilerlemeye, verideki ilerleye bakarsanız,
17:33
the algorithmic progress, the data progress,
356
1053549
2085
bunların hepsi endüstri-çapında.
17:35
all of those are really industry-wide.
357
1055634
1835
Ama bence OpenAI içinde,
17:37
But I think within OpenAI,
358
1057469
1252
ilk günlerden itibaren çok bilinçli seçimler yaptık.
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
İlki de gerçeklerle olduğu gibi yüzleşmekti.
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
17:44
And that we just thought really hard about like:
361
1064393
2294
Bu konuda gerçekten çok düşündük:
17:46
What is it going to take to make progress here?
362
1066687
2210
Burada ilerleme kaydetmek için ne gerekiyor?
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
İşe yaramayan pek çok şey denedik, siz sadece işe yarayanları görüyorsunuz.
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
Bence en önemli şey, birbirinden çok farklı insanlardan oluşan ekiplerin
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
uyumlu bir şekilde birlikte çalışmasını sağlamak oldu.
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
CA: Bu arada suyu buraya getirebilir miyiz?
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
Sanırım buna ihtiyacımız olacak, bu dili damağı kurutan bir konu.
18:06
But isn't there something also just about the fact
368
1086665
2795
Ancak bu dil modellerinde, onlara yatırım yapmaya
18:09
that you saw something in these language models
369
1089501
4755
ve onları büyütmeye devam ederseniz,
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
bir noktada bir şeylerin ortaya çıkabileceği anlamına gelen
18:18
that something at some point might emerge?
371
1098218
3129
bir şey görmüş olmanızla ilgili bir şey de yok mu?
18:21
GB: Yes.
372
1101847
1126
GB: Evet.
18:23
And I think that, I mean, honestly,
373
1103015
2836
Bence, yani, dürüst olmak gerekirse,
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
bence buradaki hikaye oldukça açıklayıcı, değil mi?
18:28
I think that high level, deep learning,
375
1108437
2002
Bence üst düzey, derin öğrenme,
her zaman olmak istediğimiz şeyin bu olduğunu biliyorduk,
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
bir derin öğrenme labıydı.
Sanırım ilk günlerde bunu bilmiyorduk.
18:35
I think that in the early days, we didn't know.
378
1115277
2211
Pek çok şey denedik
18:37
We tried a lot of things,
379
1117529
1210
ve bir kişi Amazon incelemelerinde bir sonraki karakteri tahmin etmek için
18:38
and one person was working on training a model
380
1118739
2336
bir modeli eğitmek üzerinde çalışıyordu
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
ve şöyle bir sonuç elde etti - bu sözdizimsel bir süreçtir,
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
bilirsiniz, model virgüllerin nereye gideceğini,
isimlerin ve fiillerin nerede olduğunu tahmin eder.
18:51
where the nouns and verbs are.
384
1131835
1627
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
Ama aslında bundan son teknoloji ürünü bir duygu analizi sınıflandırıcısı elde etti.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
Bu model size bir yorumun olumlu ya da olumsuz olduğunu söyleyebilir.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
Yani bugün, hadi ama, bunu herkes yapabilir diyoruz.
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
Ancak bu ortaya çıkışı, bu altta yatan sözdizimsel süreçten
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
ortaya çıkan bu tür bir anlambilimi ilk kez gördünüz.
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
O zaman anladık ki, bu şeyi ölçeklendirmeli
19:14
you've got to see where it goes.
391
1154858
1544
ve nereye gittiğini görmeliyiz.
19:16
CA: So I think this helps explain
392
1156402
1626
CA: Sanırım bu,
bu konuya bakan herkesi şaşırtan bilmeceyi açıklamaya yardımcı oluyor,
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
19:20
because these things are described as prediction machines.
394
1160572
2753
çünkü bu şeyler tahmin makineleri olarak tanımlanıyor.
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
Yine de, onlardan gördüğümüz şey...
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
bunun bir tahmin makinesinden gelmesi imkansız gibi geliyor.
19:29
Just the stuff you showed us just now.
397
1169456
2378
Az önce bize gösterdiğin şeyler.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
Ortaya çıkışın ana fikri, bir şeyden daha fazla elde ettiğinizde,
19:35
suddenly different things emerge.
399
1175754
1585
aniden farklı şeylerin ortaya çıkmasıdır.
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
Bu her zaman olur, karınca kolonileri, tek tek karıncalar etrafta dolaşır,
19:40
when you bring enough of them together,
401
1180384
1877
yeterince karıncayı bir araya getirdiğinizde,
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
farklı davranışlar gösteren bu karınca kolonilerini elde edersiniz.
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
Ya da birkaç evin bir arada olduğu bir şehir, sadece evlerdir.
19:49
But as you grow the number of houses,
404
1189059
1794
Ancak konut sayısı arttıkça,
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
banliyöler, kültür merkezleri ve trafik gibi şeyler ortaya çıkar.
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
Hiç beklemediğiniz bir anda aklınızı başınızdan alan
20:00
that just blew your mind
407
1200529
1668
bir şeyin ortaya çıktığını
20:02
that you just did not see coming.
408
1202197
1627
gördüğünüz bir anınızı anlatın.
20:03
GB: Yeah, well,
409
1203824
1209
GB: Evet,
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
bunu ChatGPT’de deneyebilirsiniz, eğer 40 basamaklı sayılar eklerseniz --
20:08
CA: 40-digit?
411
1208537
1168
CA: 40 haneli mi?
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
GB: 40 basamaklı sayılar, model bunu yapacaktır,
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
bu da nasıl yapılacağına dair gerçekten bir iç devre öğrendiği anlamına gelir.
20:15
And the really interesting thing is actually,
414
1215210
2127
Asıl ilginç olan ise,
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
40 basamaklı bir sayı ile 35 basamaklı bir sayıyı toplatırsanız,
20:20
it'll often get it wrong.
416
1220591
1710
genellikle yanlış yapar.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
Böylece süreci gerçekten öğrendiğini görebilirsiniz,
20:25
but it hasn't fully generalized, right?
418
1225471
1876
ancak tam olarak genelleşmedi, değil mi?
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
Bu, 40 basamaklı toplama tablosunu ezberleyememek gibi bir şey,
20:30
that's more atoms than there are in the universe.
420
1230100
2294
bu da evrendeki atom sayısından daha fazladır.
20:32
So it had to have learned something general,
421
1232394
2086
Yani genel bir şey öğrenmiş olmalı,
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
ancak henüz tam olarak şunu öğrenmemiş olmalı:
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
Bunu rastgele uzunluktaki, rastgele sayıları
20:39
of arbitrary lengths.
424
1239902
1167
toplamak için genelleştirebilirim.
20:41
CA: So what's happened here
425
1241111
1335
CA: Yani burada olan şey,
20:42
is that you've allowed it to scale up
426
1242488
1793
ölçeklenmesine
ve inanılmaz sayıda metin parçasına bakmasına izin verdiniz.
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
20:46
And it is learning things
428
1246742
1209
Öğrenebileceğini bilmediğiniz şeyleri öğreniyor.
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
GB: Evet, ayrıca daha incelikli bir konu.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
Gerçekten iyi olmaya başladığımız bir bilim dalı,
ortaya çıkan bu yeteneklerden bazılarını tahmin etmektir.
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
20:58
And to do that actually,
433
1258962
1335
Bunu yapmak için,
21:00
one of the things I think is very undersung in this field
434
1260339
2711
bu alanda çok az önemsendiğini düşündüğüm şeylerden biri de
21:03
is sort of engineering quality.
435
1263050
1501
mühendislik kalitesidir.
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
Tüm yığınımızı yeniden inşa etmek zorunda kaldık.
21:06
When you think about building a rocket,
437
1266637
1877
Bir roket inşa etmeyi düşündüğünüzde,
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
her toleransın inanılmaz küçük olması gerekir.
21:10
Same is true in machine learning.
439
1270766
1626
Aynı şey makine öğrenmesinde de geçerlidir.
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
Yığının her bir parçasını düzgün tasarlamanız gerekir
21:15
and then you can start doing these predictions.
441
1275646
2210
ve sonra tahminleri yapmaya başlayabilirsiniz.
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
Tüm bu yumuşak ölçeklendirme eğrileri var.
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
Size zeka hakkında son derece temel bir şey söylüyorlar.
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
GPT-4 blog yazımıza bakarsanız,
21:25
you can see all of these curves in there.
445
1285030
1960
tüm bu eğrileri orada görebilirsiniz.
21:26
And now we're starting to be able to predict.
446
1286990
2127
Şimdi tahmin edebilmeye başlıyoruz.
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
Böylece, örneğin kodlama problemlerindeki performansı tahmin edebildik.
21:32
We basically look at some models
448
1292871
1585
Temelde 10.000 kat veya 1.000 kat daha küçük olan
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
bazı modellere bakıyoruz.
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
Dolayısıyla, henüz erken olmasına rağmen, bu konuda gerçekten de
21:40
even though it's still early days.
451
1300170
2044
sorunsuz ölçeklendirilebilecek bir şey var.
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
CA: O halde en büyük korkulardan biri de
21:45
that arises from this.
453
1305300
1252
buradan kaynaklanıyor.
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
Burada olan şey temelde buysa,
21:48
that as you scale up,
455
1308720
1210
ölçeği büyüttükçe,
21:49
things emerge that
456
1309930
2419
belki belli bir güven seviyesinde
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
tahmin edebileceğiniz şeyler ortaya çıkar,
21:56
but it's capable of surprising you.
458
1316562
2544
ancak bu sizi şaşırtabilir.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
Neden gerçekten korkunç bir şeyin ortaya çıkması gibi büyük bir risk yok?
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
GB: Bence bunların hepsi derece, ölçek
22:07
and scale and timing.
461
1327865
1209
ve zamanlama ile ilgili sorular.
22:09
And I think one thing people miss, too,
462
1329116
1877
Bence insanların gözden kaçırdığı,
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
dünya ile bütünleşmenin aynı zamanda inanılmaz derecede ortaya çıkan,
22:14
sort of, very powerful thing too.
464
1334621
1585
çok güçlü bir şey olduğu.
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
Aşamalı olarak dağıtımın çok önemli olduğunu düşünmemizin
22:19
to deploy incrementally.
466
1339293
1167
nedenlerinden biri de bu.
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
Bence şu anda gördüğümüz şey, bu konuşmaya bakarsanız,
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
odaklandıklarımın yüksek kaliteli geri bildirim olduğunu görürsünüz.
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
Bugün, yaptığımız işleri denetleyebiliyorsunuz, değil mi?
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
Bu matematik problemine bakıp, hayır, hayır, hayır,
makine, doğru cevap yediydi demek çok kolay.
22:33
machine, seven was the correct answer.
471
1353265
1835
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
Ama bir kitabı özetlemek bile denetlemesi zor bir şey.
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
Mesela, bu kitap özeti iyi mi değil mi nereden biliyorsun?
22:40
You have to read the whole book.
474
1360939
1543
Bütün kitabı okumalısın.
22:42
No one wants to do that.
475
1362482
1168
Kimse bunu yapmak istemiyor.
22:43
(Laughter)
476
1363692
1293
(Kahkaha)
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
Bu nedenle önemli olanın bunu adım adım gerçekleştirmemiz olduğunu düşünüyorum.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
Biz de tamam diyoruz, kitap özetlerine geçerken,
22:51
we have to supervise this task properly.
479
1371867
1960
bu görevi düzgün denetlemeliyiz.
22:53
We have to build up a track record with these machines
480
1373827
2586
Bu makinelerin amacımızı gerçekten
yerine getirebildiklerine dair bir sicil oluşturmamız gerekiyor.
22:56
that they're able to actually carry out our intent.
481
1376413
2586
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
Bence bunu ölçeklendirmek için daha da iyi, daha verimli,
daha güvenilir yollar üretmemiz gerekecek,
23:02
more reliable ways of scaling this,
483
1382419
1710
bir nevi makinenin sizinle aynı hizada olmasını sağlamak gibi.
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
CA: Bu oturumun ilerleyen bölümlerinde duyacağımız üzere,
23:09
there are critics who say that,
486
1389343
1543
23:10
you know, there's no real understanding inside,
487
1390928
4587
içeride gerçek bir anlayış olmadığını,
sistemin her zaman hata üretmeyeceğini,
23:15
the system is going to always --
488
1395557
1627
sağduyulu olmadığını
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
ve benzeri şeyleri asla bilemeyeceğimizi
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
söyleyen eleştirmenler var.
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
Greg, bunun herhangi bir anda doğru olduğuna,
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
ancak ölçeğin genişlemesinin ve bahsettiğin geri bildirimin
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
temelde onu hakikat, bilgelik
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
ve benzeri şeylere yüksek derecede güvenle
ulaşma yolculuğuna çıkaracağına inanıyor musun?
23:39
with a high degree of confidence.
495
1419331
1627
23:40
Can you be sure of that?
496
1420999
1335
Bundan emin olabilir misiniz?
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
GB: Evet, bence OpenAI, yani kısa cevap evet,
23:45
I believe that is where we're headed.
498
1425796
1793
gittiğimiz yerin bu olduğuna inanıyorum.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
Bence OpenAI’nin buradaki yaklaşımı hep “Bırakın gerçeklik yüzünüze çarpsın”
23:50
let reality hit you in the face, right?
500
1430842
1877
şeklinde olmuştur, değil mi?
23:52
It's like this field is the field of broken promises,
501
1432719
2503
Sanki bu alan tutulmayan sözlerin,
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
X olacak, Y böyle işliyor diyen uzmanların alanı gibi.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
İnsanlar 70 yıldır sinir ağlarının işe yaramayacağını söylüyor.
24:01
They haven't been right yet.
504
1441812
1376
Henüz haklı çıkmadılar.
24:03
They might be right maybe 70 years plus one
505
1443188
2044
Haklı olabilirler,
belki 70 yıl sonra ya da onun gibi bir şey.
24:05
or something like that is what you need.
506
1445232
1918
24:07
But I think that our approach has always been,
507
1447192
2169
Ama bence bizim yaklaşımımız her zaman şu olmuştur:
24:09
you've got to push to the limits of this technology
508
1449361
2419
Bu teknolojiyi iş başında görmek için sınırlarını zorlamalısınız,
24:11
to really see it in action,
509
1451822
1293
çünkü bu size o zaman,
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
ah, işte yeni bir paradigmaya nasıl geçebileceğimizi söyler.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
Buradaki meyveleri henüz tüketmedik.
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
CA: Demek istediğim, bunu yapmanın doğru yolunun
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
halka açık bir şekilde ortaya koymak
ve daha sonra tüm bunları kullanmak olduğu konusunda
24:24
and then harness all this, you know,
514
1464710
1751
oldukça tartışmalı bir duruş sergilediniz, bilirsiniz,
24:26
instead of just your team giving feedback,
515
1466461
2002
24:28
the world is now giving feedback.
516
1468463
2461
sadece ekibiniz değil dünya artık geri bildirim veriyor.
24:30
But ...
517
1470924
1168
Ama ...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
Eğer, biliyorsunuz, kötü şeyler ortaya çıkacak
24:36
it is out there.
519
1476930
1168
zaten orada.
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
OpenAI hakkında duyduğum ilk hikaye,
kar amacı gütmeyen bir kuruluş olarak kurulduğunuzda,
24:41
when you were founded as a nonprofit,
521
1481101
1793
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
büyük şirketlerin yapay zeka ile ilgili bilinmeyen,
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
muhtemelen şeytani şeyleri yapmalarının önünde bir kontrol olarak oradaydınız.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
Bir şekilde onları sorumlu tutacak
24:56
somehow held them accountable
525
1496033
1418
ve gerektiğinde sahayı yavaşlatabilecek
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
modeller inşa edecektiniz.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
Ya da en azından ben öyle duydum.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
Oysa olan şey, tartışmalı bir şekilde, bunun tam tersidir.
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
GPT’yi, özellikle de ChatGPT’yi piyasaya sürmeniz
teknoloji dünyasında öyle bir şok etkisi yarattı ki,
25:12
sent such shockwaves through the tech world
530
1512049
2002
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
şimdi Google, Meta ve diğerlerinin hepsi bunu yakalamak için çabalıyor.
25:17
And some of their criticisms have been,
532
1517888
2085
Eleştirilerinden bazıları da şu oldu:
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
Bizi bunu uygun korkuluklar olmadan buraya koymaya zorluyorsunuz yoksa ölürüz.
25:25
You know, how do you, like,
534
1525020
2794
Bilirsiniz, burada yaptığınız şeyin
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
pervasızca değil de sorumlu bir şekilde yapıldığını nasıl savunursunuz?
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
GB: Evet, bu soruları her zaman düşünüyoruz.
25:34
Like, seriously all the time.
537
1534738
1418
Yani, cidden her zaman.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
Bunu her zaman doğru yapabileceğimizi sanmıyorum.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
Ama bence en başından beri,
yapay genel zekayı nasıl inşa edeceğimizi,
25:41
from the very beginning, when we were thinking
540
1541411
2169
aslında tüm insanlığa nasıl fayda sağlayacağını düşündüğümüzde,
25:43
about how to build artificial general intelligence,
541
1543580
2419
25:45
actually have it benefit all of humanity,
542
1545999
2002
bunu nasıl yapacağımızı düşünmek
25:48
like, how are you supposed to do that, right?
543
1548001
2127
inanılmaz derecede önemliydi, değil mi?
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
Bu varsayılan plan, gizlice inşa edersiniz,
25:52
you get this super powerful thing,
545
1552923
1626
bu süper güçlü şeyi elde edersiniz
ve sonra bunun güvenliğini çözersiniz
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
ve sonra “başlat” düğmesine basar ve doğru yaptığınızı umarsınız.
25:57
and you hope you got it right.
547
1557552
1460
O planı nasıl uygulayacağımı bilmiyorum.
25:59
I don't know how to execute that plan.
548
1559012
1835
26:00
Maybe someone else does.
549
1560889
1168
Belki başka biri biliyordur.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
Ama benim için bu her zaman korkutucuydu, doğru gelmiyordu.
26:04
And so I think that this alternative approach
551
1564976
2128
Bence bu alternatif yaklaşım
26:07
is the only other path that I see,
552
1567104
2043
benim gördüğüm diğer tek yol,
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
yani gerçekliğin yüzünüze çarpmasına izin vermeniz.
26:11
And I think you do give people time to give input.
554
1571691
2336
İnsanlara görüşlerini bildirmeleri için zaman tanımanız.
26:14
You do have, before these machines are perfect,
555
1574027
2211
Bu makineler mükemmel olmadan önce,
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
süper güçlü olmadan önce, onları gerçekten çalışırken
26:19
to see them in action.
557
1579407
1168
görme olanağına sahipsiniz.
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
Bunu GPT-3′te gördük, değil mi?
26:22
GPT-3, we really were afraid
559
1582369
1376
GPT-3, insanların bununla yapacakları ilk şeyin
26:23
that the number one thing people were going to do with it
560
1583745
2711
yanlış bilgi üretmek ve seçimleri etkilemeye çalışmak
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
olacağından gerçekten korkuyorduk.
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
Onun yerine ilk yapılan Viagra spami üretmekti.
26:31
(Laughter)
563
1591545
3169
(Gülüşmeler)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
CA: Viagra spam’i kötü ama çok daha kötü olan şeyler de var.
26:39
Here's a thought experiment for you.
565
1599219
1752
İşte size bir düşünce deneyi.
26:40
Suppose you're sitting in a room,
566
1600971
1710
Suppose you’re sitting in a room,
26:42
there's a box on the table.
567
1602681
1668
there’s a box on the table.
26:44
You believe that in that box is something that,
568
1604349
3003
O kutunun içinde öyle bir şey olduğuna inanıyorsunuz ki,
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
çok güçlü bir ihtimalle ailenize ve herkese güzel hediyeler verecek
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
kesinlikle muhteşem bir şey olacak.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
Ama aslında orada küçük puntolarla
“Pandora” yazan yüzde birlik bir şey de var.
26:58
that says: “Pandora.”
572
1618029
1877
26:59
And there's a chance
573
1619906
1669
Bunun aslında
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
dünyaya hayal bile edilemeyecek kötülükler getirme ihtimali var.
27:06
Do you open that box?
575
1626538
1543
O kutuyu açar mısın?
27:08
GB: Well, so, absolutely not.
576
1628123
1460
GB: Yani, kesinlikle hayır.
27:09
I think you don't do it that way.
577
1629624
1919
Onu o şekilde yapmayacağını düşünmüyorum.
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
Dürüst olmak gerekirse, size daha önce anlatmadığım bir hikaye anlatacağım;
OpenAI’yi başlattıktan kısa bir süre sonra,
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
bir yapay zeka konferansı için Porto Riko’da olduğumu hatırlıyorum.
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
Otel odasında oturmuş bu harika suya bakıyorum,
27:24
all these people having a good time.
582
1644806
1752
tüm bu insanlar iyi vakit geçiriyor.
27:26
And you think about it for a moment,
583
1646558
1752
Bir an için düşünün,
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
eğer Pandora’nın kutusunun
27:32
to be five years away
585
1652814
2711
beş yıl ya da
500 yıl uzakta olmasını seçebilseydiniz,
27:35
or 500 years away,
586
1655567
1585
27:37
which would you pick, right?
587
1657194
1501
hangisini seçerdiniz, değil mi?
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
Bir yandan, belki de kişisel olarak sizin için
27:41
it's better to have it be five years away.
589
1661573
2002
beş yıl uzakta olması daha iyidir dersiniz.
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
Ama eğer 500 yıl sonraysa ve insanlar doğruyu bulmak için
daha fazla zamana sahip olacaksa, hangisini seçersiniz?
27:47
which do you pick?
591
1667287
1168
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
O anda bunu gerçekten hissettim.
27:50
I was like, of course you do the 500 years.
593
1670874
2002
Ben de tabii ki 500 yıl derdim.
27:53
My brother was in the military at the time
594
1673293
2002
Kardeşim o sırada ordudaydı
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
ve hayatını, bilgisayarda bir şeyler yazan
27:58
than any of us typing things in computers
596
1678256
2628
ve o sırada bu teknolojiyi geliştiren
28:00
and developing this technology at the time.
597
1680926
2585
herhangi birimizden çok daha gerçek bir şekilde ortaya koydu.
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
Bu yüzden, bu konuya doğru yaklaşmanız gerektiği konusunda gerçekten ikna oldum.
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
Ancak bunun sahayı gerçekte olduğu gibi oynamak olduğunu düşünmüyorum.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
Bilgisayarın tüm tarihine bakarsanız,
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
bunun endüstri çapında
ya da hatta neredeyse teknolojinin insan gelişimi çapında
28:18
or even just almost like
602
1698902
1543
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
bir değişim olduğunu söylerken gerçekten ciddiyim.
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
Ne kadar çok parçayı bir araya getirmezseniz,
28:27
that are there, right,
605
1707994
1293
doğru,
hala daha hızlı bilgisayarlar yapıyoruz,
28:29
we're still making faster computers,
606
1709329
1752
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
hala algoritmaları geliştiriyoruz, tüm bunlar oluyor.
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
Eğer bunları bir araya getirmezseniz, bir çıkıntınız olur,
28:37
which means that if someone does,
609
1717420
1627
yani eğer birisi bunu yaparsa
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
ya da birisi devreye bağlanmayı başardığı anda,
aniden çok güçlü bir şeye sahip olursunuz,
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
kimsenin uyum sağlamak için zamanı olmaz,
28:44
no one's had any time to adjust,
612
1724427
1544
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
kim bilir ne tür güvenlik önlemleri alırsınız.
28:48
And so I think that one thing I take away
614
1728390
1918
Sanırım buradan çıkardığım bir şey de,
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
diğer teknolojilerin gelişimini düşünseniz bile,
28:54
think about nuclear weapons,
616
1734187
1376
nükleer silahları düşünün,
28:55
people talk about being like a zero to one,
617
1735563
2002
insanlar insanların yapabilecekleri şeylerin
28:57
sort of, change in what humans could do.
618
1737565
2628
sıfırdan bire değiştiğinden bahsediyor.
29:00
But I actually think that if you look at capability,
619
1740235
2461
Ama aslında kapasiteye bakarsanız,
29:02
it's been quite smooth over time.
620
1742696
1585
zaman içinde oldukça düzgün olduğunu düşünüyorum.
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
Bence geliştirdiğimiz her teknolojinin tarihi,
29:07
has been, you've got to do it incrementally
622
1747993
2002
bunu aşamalı olarak yapmanız
29:10
and you've got to figure out how to manage it
623
1750036
2127
ve artırdığınız her an için
29:12
for each moment that you're increasing it.
624
1752163
2461
bunu nasıl yöneteceğinizi bulmanız gerektiğidir.
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
CA: Yani duyduğum kadarıyla siz...
29:16
the model you want us to have
626
1756918
1668
sahip olmamızı istediğiniz model,
29:18
is that we have birthed this extraordinary child
627
1758628
2795
insanlığı yepyeni bir yere taşıyacak
29:21
that may have superpowers
628
1761423
2544
süper güçlere sahip olabilecek
29:24
that take humanity to a whole new place.
629
1764009
2544
bu olağanüstü çocuğu doğurduğumuz.
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
Bu çocuğa hep birlikte bilge olmayı
ve hepimizi yıkmamayı öğretmek için
29:31
for this child
631
1771641
1210
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
korkuluklar sağlamak bizim ortak sorumluluğumuzdur.
29:37
Is that basically the model?
633
1777939
1377
Temel model bu mu?
29:39
GB: I think it's true.
634
1779357
1168
GB: Bence bu doğru.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
Bence bunun değişebileceğini söylemek de önemli, değil mi?
29:43
We've got to take each step as we encounter it.
636
1783445
3253
Her adımı karşılaştığımız gibi atmalıyız.
29:46
And I think it's incredibly important today
637
1786740
2002
Bence bugün hepimizin bu teknolojide okur-yazar olmamız,
29:48
that we all do get literate in this technology,
638
1788783
2878
geri bildirimi nasıl sağlayacağımızı bulmamız
29:51
figure out how to provide the feedback,
639
1791661
1919
ve bundan ne istediğimize karar vermemiz
29:53
decide what we want from it.
640
1793621
1377
son derece önemli.
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
Umudum bunun en iyi yol olmaya devam etmesi,
ancak dürüstçe bu tartışmayı yapıyor olmamız çok iyi
29:58
but it's so good we're honestly having this debate
642
1798168
2377
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
çünkü aksi takdirde varolmasaydı bunu yapamazdık.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
CA: Greg Brockman, TED’e gelip aklımızı
başımızdan aldığınız için çok teşekkür ederiz.
30:07
(Applause)
645
1807302
1626
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7