What Is an AI Anyway? | Mustafa Suleyman | TED

1,902,222 views ・ 2024-04-22

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ozay Ozaydin Gözden geçirme: Başak Gökdaş
00:04
I want to tell you what I see coming.
0
4292
2586
Size ne olacağını gördüğümü söylemek istiyorum.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
Neredeyse 15 yıldır yapay zeka çalıştığım için yeterince şanslıyım.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
Başladığım zamanlarda, bunu sınırda olarak tanımlamak yetersiz kalırdı.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Araştırmacılar “Hayır, hayır, biz sadece makine öğrenimi çalışıyoruz” diyorlardı.
00:21
Because working on AI was seen as way too out there.
4
21893
3087
Çünkü YZ üzerinde çalışmak çok uçuk bir şey olarak görülüyordu.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
2010 yılında, “AGI” yani yapay genel zeka ifadesinden bahsetmek bile
00:29
artificial general intelligence,
6
29401
2169
00:31
would get you some seriously strange looks
7
31570
2877
size ciddi şekilde tuhaf bakılmasına ve hatta soğuk davranılmasına neden olurdu.
00:34
and even a cold shoulder.
8
34489
1585
00:36
"You're actually building AGI?" people would say.
9
36366
3837
Gerçekten yapay zeka mı geliştiriyorsunuz? İnsanlar şöyle derdi.
00:40
"Isn't that something out of science fiction?"
10
40203
2294
“Bu bilim kurgu değil mi?”
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
İnsanlar bunun 50 ya da 100 yıl ötede olduğunu düşünürdü,
00:45
if it was even possible at all.
12
45500
1919
tabii eğer mümkünse.
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Yapay zekadan bahsetmek sanırım biraz utanç vericiydi.
00:51
People generally thought we were weird.
14
51631
2211
İnsanlar genellikle tuhaf olduğumuzu düşünüyordu.
00:54
And I guess in some ways we kind of were.
15
54217
2503
Sanırım bazı açılardan öyleydik de.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Yine de yapay zekanın, insanların daha önce ulaşamayacağını düşündüğü
00:59
at a whole range of tasks
17
59681
1793
bir dizi görevde
01:01
that people previously thought were way out of reach.
18
61516
2795
insanları yenmeye başlaması çok uzun sürmedi.
01:05
Understanding images,
19
65020
2127
Görüntüleri anlamak,
01:07
translating languages,
20
67147
1918
dilleri tercüme etmek,
01:09
transcribing speech,
21
69065
1585
konuşmaları yazıya dökmek,
01:10
playing Go and chess
22
70692
2127
Go ve satranç oynamak
01:12
and even diagnosing diseases.
23
72861
1918
ve hatta hastalıkları teşhis etmek.
01:15
People started waking up to the fact
24
75905
1752
İnsanlar yapay zekanın
01:17
that AI was going to have an enormous impact,
25
77657
3462
muazzam bir etkisi olacağı gerçeğine uyanmaya başladılar
01:21
and they were rightly asking technologists like me
26
81119
2836
ve haklı olarak benim gibi teknoloji uzmanlarına
01:23
some pretty tough questions.
27
83955
1752
oldukça zor sorular soruyorlardı.
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
Yapay zekanın iklim krizini çözeceği doğru mu?
Kişiselleştirilmiş eğitimi herkes için kullanılabilir hale getirecek mi?
01:29
Will it make personalized education available to everyone?
29
89127
3337
01:32
Does it mean we'll all get universal basic income
30
92881
2294
Hepimiz evrensel temel gelire sahip olacağız
ve artık çalışmak zorunda kalmayacak mıyız?
01:35
and we won't have to work anymore?
31
95216
2002
01:37
Should I be afraid?
32
97218
1544
Korkmalı mıyım?
01:38
What does it mean for weapons and war?
33
98762
2335
Silahlar ve savaş için ne anlama geliyor?
01:41
And of course, will China win?
34
101598
1460
Tabii ki Çin kazanacak mı?
01:43
Are we in a race?
35
103058
1543
Bir yarış içinde miyiz?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
Kitlesel bir yanlış bilgilendirme kıyametine mi gidiyoruz?
01:49
All good questions.
37
109147
1668
Hepsi güzel sorular.
01:51
But it was actually a simpler
38
111608
1418
Ama aslında kafamı kurcalayan
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
daha basit ve çok daha temel bir soruydu.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
Aslında her gün yaptığım işin tam kalbine inen bir soru.
02:03
One morning over breakfast,
41
123620
2044
Bir sabah kahvaltıda,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
altı yaşındaki yeğenim Caspian,
02:09
the AI I created at my last company, Inflection.
43
129084
3378
son şirketim Inflection’da yarattığım yapay zeka Pi ile oynuyordu.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Ağzında çırpılmış yumurtayla
02:14
he looked at me plain in the face and said,
45
134381
3503
yüzüme baktı ve
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
“Ama Mustafa, yapay zeka nedir ki?” dedi.
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
O kadar içten, meraklı ve iyimser bir çocuk ki.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Pi ile gelecekte bir gün hayvanat bahçesindeki
dinozorları ziyaret edebilmesinin
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
ne kadar harika olacağından bahsediyordu.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
Evde nasıl sonsuz miktarda çikolata yapabileceğinden.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
Pi’nin neden henüz I Spy oynayamadığından.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
Dedim ki, “bu açık internetteki metinlerin çoğunu okuyan
02:42
that's read most of the text on the open internet,
53
162075
2461
akıllı bir yazılım parçası
02:44
and it can talk to you about anything you want."
54
164577
2419
ve seninle istediğin her şey hakkında konuşabilir.”
02:48
"Right.
55
168540
1168
“Doğru.
02:49
So like a person then?"
56
169749
2127
Yani bir insan gibi mi?”
02:54
I was stumped.
57
174254
1334
Şaşkına dönmüştüm.
02:56
Genuinely left scratching my head.
58
176798
2502
Gerçekten kafamı kaşımak zorunda kaldım.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
Tüm sıkıcı cevaplarım aklımdan geçmeye başladı.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
“Hayır, ama yapay zeka matbaa ya da buhar gibi
03:07
like printing or steam."
61
187308
1710
genel amaçlı başka bir teknoloji.”
03:09
It will be a tool that will augment us
62
189394
2502
Bizi güçlendirecek ve bizi daha akıllı
03:11
and make us smarter and more productive.
63
191938
2377
ve üretken kılacak bir araç olacak.
03:14
And when it gets better over time,
64
194649
1960
Zaman içinde daha iyi hale geldiğinde,
03:16
it'll be like an all-knowing oracle
65
196651
1919
büyük bilimsel zorlukları çözmemize
03:18
that will help us solve grand scientific challenges."
66
198611
3087
yardımcı olacak her şeyi bilen bir kâhin gibi olacak.”
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Tüm bu yanıtlar sanırım biraz
03:25
a little bit defensive.
68
205869
1418
savunmacı gelmeye başladı.
03:28
And actually better suited to a policy seminar
69
208246
2211
Aslında altı yaşında kül yutmaz bir çocukla kahvaltıdan çok
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
bir politika seminerine daha uygun.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
Neden tereddüt ediyorum? Kendi kendime düşündüm.
03:37
You know, let's be honest.
72
217839
1960
Dürüst olalım.
03:39
My nephew was asking me a simple question
73
219799
3253
Yeğenim bana yapay zeka alanında çalışan
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
bizlerin yeterince sık yüzleşmediği basit bir soru soruyordu.
03:48
What is it that we are actually creating?
75
228099
2920
Aslında yarattığımız şey nedir?
03:51
What does it mean to make something totally new,
76
231895
3753
Tamamen yeni, daha önce bildiğimiz
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
herhangi bir icattan temelde farklı bir şey yapmak ne anlama geliyor?
04:00
It is clear that we are at an inflection point
78
240695
2795
İnsanlık tarihinde
bir dönüm noktasında olduğumuz açık.
04:03
in the history of humanity.
79
243490
1793
04:06
On our current trajectory,
80
246493
1918
Mevcut yörüngemizde,
04:08
we're headed towards the emergence of something
81
248411
2211
hepimizin tanımlamakta zorlandığı bir şeyin
04:10
that we are all struggling to describe,
82
250663
3170
ortaya çıkmasına doğru gidiyoruz
04:13
and yet we cannot control what we don't understand.
83
253875
4630
ve yine de anlamadığımız şeyi kontrol edemiyoruz.
04:19
And so the metaphors,
84
259631
1585
Dolayısıyla metaforlar,
04:21
the mental models,
85
261216
1251
zihinsel modeller,
04:22
the names, these all matter
86
262509
2585
isimler, bunların hepsi
yapay zekadan en iyi şekilde yararlanmak
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
ve potansiyel olumsuzluklarını sınırlamak için önemli.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Bu teknolojinin olanaklarını benimseyen
ama aynı zamanda etik değerlerini de
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
her zaman derinden önemseyen biri olarak,
04:37
we should, I think,
90
277524
1293
inşa ettiğimiz şeyin ne olduğunu
04:38
be able to easily describe what it is we are building.
91
278817
3044
kolayca tanımlayabilmemiz gerektiğini düşünüyorum.
04:41
And that includes the six-year-olds.
92
281861
2002
Buna altı yaşındaki çocuklar da dahil.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
İşte bu ruhla, bugün bize bu anın
gerçekte ne olduğunu kavramamıza yardımcı olacak şu metaforu öneriyorum.
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
04:52
I think AI should best be understood
95
292539
2627
Bence yapay zeka en iyi şekilde
04:55
as something like a new digital species.
96
295166
4254
yeni bir dijital tür olarak anlaşılmalıdır.
05:00
Now, don't take this too literally,
97
300296
2253
Şimdi, bunu kelimenin tam anlamıyla almayın,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
ancak onları dijital yoldaşlar, tüm yaşamlarımızın yolculuklarında
05:07
new partners in the journeys of all our lives.
99
307220
3295
yeni ortaklar olarak görmeye başlayacağımızı tahmin ediyorum.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
İster 10, ister 20 ya da 30 yıllık bir yolda olduğumuzu düşünün,
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
bana göre bu, aslında gelmekte olanı tanımlamanın
05:19
of describing what's actually coming.
102
319732
2378
en doğru ve temelde en dürüst yolu.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
Her şeyden önemlisi, herkesin bundan sonra olacaklara hazırlanmasını
05:26
and shape what comes next.
104
326614
2711
ve bunları şekillendirmesini sağlıyor.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Şimdi, bunun güçlü bir iddia olduğunu anlıyorum
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
ve bunu neden yaptığımı elimden geldiğince herkese açıklayacağım.
05:36
But first, let me just try to set the context.
107
336291
2961
Ama önce bağlamı belirlemeye çalışayım.
05:39
From the very first microscopic organisms,
108
339252
2753
İlk mikroskobik organizmalardan bu yana,
05:42
life on Earth stretches back billions of years.
109
342046
3462
Dünya üzerindeki yaşam milyarlarca yıl öncesine dayanmaktadır.
05:45
Over that time, life evolved and diversified.
110
345508
4213
Bu süre zarfında yaşam evrimleşti ve çeşitlendi.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Birkaç milyon yıl önce ise bir şeyler değişmeye başladı.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Sayısız büyüme ve adaptasyon döngüsünden sonra,
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
yaşamın dallarından biri alet kullanmaya başladı ve bu dal bize dönüştü.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Büyüleyici çeşitlilikte aletler üretmeye devam ettik,
06:08
at first slowly and then with astonishing speed,
115
368907
3670
önce yavaş yavaş sonra şaşırtıcı bir hızla taş baltalar
06:12
we went from stone axes and fire
116
372577
3670
ve ateşten dile, yazıya ve nihayetinde
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
endüstriyel teknolojilere geçtik.
06:21
One invention unleashed a thousand more.
118
381878
2919
Bir icat binlercesini daha serbest bıraktı.
06:25
And in time, we became homo technologicus.
119
385173
3712
Zamanla homo technologicus olduk.
06:29
Around 80 years ago,
120
389594
1209
Yaklaşık 80 yıl önce,
06:30
another new branch of technology began.
121
390803
2545
yeni bir teknoloji dalı daha başladı.
06:33
With the invention of computers,
122
393973
1710
Bilgisayarların icadıyla birlikte
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
ilk ana bilgisayarlardan ve transistörlerden
günümüzün akıllı telefonlarına
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
ve sanal gerçeklik kulaklıklarına hızlı bir sıçrama yaptık.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Enformasyon, bilgi, iletişim, hesaplama.
06:47
In this revolution,
126
407570
1418
Bu devrimde yaratıcılık daha önce hiç olmadığı kadar patladı.
06:49
creation has exploded like never before.
127
409030
3295
06:53
And now a new wave is upon us.
128
413242
2503
Şimdi yeni bir dalga üzerimizde.
06:55
Artificial intelligence.
129
415787
1668
Yapay zeka.
06:57
These waves of history are clearly speeding up,
130
417872
2544
Tarihin bu dalgaları açıkça hızlanıyor,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
çünkü her biri bir öncekiyle güçleniyor ve hızlanıyor.
Geriye dönüp baktığımızda,
07:05
And if you look back,
132
425088
1167
07:06
it's clear that we are in the fastest
133
426297
2002
şimdiye kadarki en hızlı
07:08
and most consequential wave ever.
134
428299
2586
ve en önemli dalganın içinde olduğumuzu görüyoruz.
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
İnsanlığın ve teknolojinin yolculukları artık derinden iç içe geçmiş durumda.
07:16
In just 18 months,
136
436516
1543
Sadece 18 ay içinde
07:18
over a billion people have used large language models.
137
438059
3170
bir milyardan fazla insan büyük dil modellerini kullandı.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Birbiri ardına dönüm noktası niteliğinde olaylara tanık olduk.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Sadece birkaç yıl önce insanlar yapay zekanın
asla yaratıcı olamayacağını söylüyordu.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Oysa şimdi yapay zeka sonsuz bir yaratıcılık nehri gibi akıyor,
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
hayal gücünü zorlayan şiirler, resimler, müzik ve videolar üretiyor.
07:39
People said it would never be empathetic.
142
459664
2252
İnsanlar asla empati kuramayacağını söylüyordu.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Oysa bugün milyonlarca insan YZ’lerle anlamlı sohbetler yapıyor,
umutları ve hayalleri hakkında konuşuyor
07:47
talking about their hopes and dreams
144
467755
2002
ve zorlu duygusal zorlukların üstesinden gelmelerine yardımcı oluyor.
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
07:53
AIs can now drive cars,
146
473177
2294
YZ’ler artık araba sürebiliyor,
07:55
manage energy grids
147
475513
1543
enerji şebekelerini yönetebiliyor
07:57
and even invent new molecules.
148
477056
2252
ve hatta yeni moleküller icat edebiliyor.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Sadece birkaç yıl önce bunların her biri imkansızdı.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
Tüm bunlar, veri ve hesaplamanın sarmal üstelleri tarafından
08:09
and computation.
151
489277
1626
turbo şarj ediliyor.
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
Geçen yıl, son modelimiz olan Inflection 2.5,
08:16
used five billion times more computation
153
496242
4129
10 yıl kadar önce eski usul Atari oyunlarını yenen
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
DeepMind yapay zekasından beş milyar kat
08:24
just over 10 years ago.
155
504042
1668
daha fazla hesaplama kullandı.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Bu, dokuz kat daha fazla hesaplama anlamına geliyor.
08:30
10x per year,
157
510089
1627
Neredeyse on yıl boyunca
08:31
every year for almost a decade.
158
511716
3253
her yıl, yılda 10 kat.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Aynı süre içinde, bu modellerin boyutu
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
önce on milyonlarca parametreden milyarlarca parametreye
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
ve çok yakında da on trilyonlarca parametreye ulaştı.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Eğer bir kişi hayatı boyunca günde 24 saat okumaktan başka bir şey yapmasaydı,
08:50
they'd consume eight billion words.
163
530109
3337
sekiz milyar kelime tüketirdi.
08:53
And of course, that's a lot of words.
164
533488
1835
Tabii ki bu çok fazla kelime demek.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Ancak bugün, en gelişmiş yapay zekalar tek bir aylık eğitimde
09:01
in a single month of training.
166
541120
2336
sekiz trilyondan fazla kelime tüketiyor.
09:03
And all of this is set to continue.
167
543873
1960
Tüm bunlar devam edecek.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
Teknoloji tarihinin uzun eğrisi şimdi olağanüstü yeni bir aşamada.
09:12
So what does this mean in practice?
169
552256
2503
Peki bu pratikte ne anlama geliyor?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Tıpkı internetin bize tarayıcıyı,
09:18
and the smartphone gave us apps,
171
558346
2502
akıllı telefonun da uygulamaları sunması gibi,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
bulut tabanlı süper bilgisayar da yeni bir her yerde bulunan
09:24
of ubiquitous AIs.
173
564936
2502
yapay zeka çağını başlatıyor.
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Yakında her şey bir konuşma arayüzü tarafından temsil edilecek.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
Ya da başka bir deyişle, kişisel bir YZ.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Bu YZ’ler sonsuz derecede bilgili olacaklar
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
ve yakında gerçeklere dayalı olarak doğru ve güvenilir olacaklar.
09:42
They'll have near-perfect IQ.
178
582036
1794
Mükemmele yakın bir IQ’ya sahip olacaklar.
09:44
They’ll also have exceptional EQ.
179
584914
2377
Ayrıca olağanüstü bir EQ’ya sahip olacaklar.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Nazik, destekleyici ve empatik olacaklar.
09:53
These elements on their own would be transformational.
181
593089
2836
Bu unsurlar kendi başlarına dönüşümsel olacaktır.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Herkesin cebinde kişiselleştirilmiş bir öğretmen olduğunu
09:59
and access to low-cost medical advice.
183
599720
3003
ve düşük maliyetli tıbbi tavsiyelere erişebildiğini hayal edin.
10:02
A lawyer and a doctor,
184
602723
1544
Bir avukat, bir doktor,
10:04
a business strategist and coach --
185
604267
1960
bir iş stratejisti ve bir koç...
10:06
all in your pocket 24 hours a day.
186
606269
2252
hepsi günün 24 saati cebinizde.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Ancak benim AQ dediğim “eylem katsayısı“nı geliştirdiklerinde
10:13
their “actions quotient.”
188
613693
1668
işler gerçekten değişmeye başlar.
10:15
This is their ability to actually get stuff done
189
615695
2794
Bu, dijital ve fiziksel dünyada
gerçekten bir şeyler yapabilme becerileridir.
10:18
in the digital and physical world.
190
618531
2294
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
Çok geçmeden, yapay zekaya sahip olanlar sadece insanlar olmayacak.
10:24
Strange as it may sound, every organization,
192
624328
2962
Kulağa garip gelse de, küçük işletmelerden
10:27
from small business to nonprofit to national government,
193
627290
3253
kar amacı gütmeyen kuruluşlara ve ulusal hükümete kadar
10:30
each will have their own.
194
630585
1710
her kuruluşun kendi yapay zekası olacak.
10:32
Every town, building and object
195
632795
2711
Her kasaba, bina ve nesne
10:35
will be represented by a unique interactive persona.
196
635506
3754
benzersiz bir interaktif kişilik tarafından temsil edilecek.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
Bunlar sadece mekanik yardımcılar olmayacak.
10:42
They'll be companions, confidants,
198
642221
3754
Hepimiz gibi çeşitli ve benzersiz yoldaşlar,
10:46
colleagues, friends and partners,
199
646017
2669
sırdaşlar, meslektaşlar, arkadaşlar
10:48
as varied and unique as we all are.
200
648728
2627
ve ortaklar olacaklar.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
Bu noktada, YZ’ler çoğu görevde insanları ikna edici bir şekilde taklit edecek.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
Biz bunu en samimi ölçeklerde hissedeceğiz.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
Yaşlı bir komşu için bir topluluk buluşması organize eden bir YZ.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Zor bir teşhisi anlamlandırmanıza yardımcı olan sempatik bir uzman.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Ancak bunu en büyük ölçeklerde de hissedeceğiz.
11:12
Accelerating scientific discovery,
206
672043
2586
Hızlanan bilimsel keşifler,
11:14
autonomous cars on the roads,
207
674629
2168
yollardaki otonom arabalar,
11:16
drones in the skies.
208
676797
1627
gökyüzündeki dronlar.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
Hem yemek siparişi verecekler hem de elektrik santralini işletecekler.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Bizimle ve elbette birbirleriyle etkileşime girecekler.
11:26
They'll speak every language,
211
686349
1918
Her dili konuşacaklar,
11:28
take in every pattern of sensor data,
212
688267
2836
her türlü sensör verisini,
11:31
sights, sounds,
213
691145
2336
görüntüyü, sesi,
11:33
streams and streams of information,
214
693481
2377
akışı ve bilgi akışını,
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
herhangi birimizin bin ömür boyunca
tüketebileceğinden çok daha fazlasını alacaklar.
11:40
So what is this?
216
700780
1293
Peki nedir bu?
11:42
What are these AIs?
217
702990
2086
Bu yapay zekalar nedir?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Güvenliği her şeyin üstünde tutacaksak,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
bu yeni dalganın her zaman insanlığa hizmet etmesini
ve insanlığı güçlendirmesini sağlayacaksak,
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
bunun neye dönüşebileceğine dair doğru metaforları bulmamız gerekiyor.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
Yıllardır, YZ topluluğunda bizler ve özellikle de ben,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
buna sadece araçlar deme eğilimindeyiz.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
Ancak bu, burada gerçekte neler olduğunu tam olarak yansıtmıyor.
12:14
AIs are clearly more dynamic,
224
734730
2503
YZ’ler, tamamen insan kontrolüne tabi olan
12:17
more ambiguous, more integrated
225
737233
2753
salt araçlardan açıkça daha dinamik,
12:19
and more emergent than mere tools,
226
739986
2627
daha belirsiz, daha entegre
12:22
which are entirely subject to human control.
227
742613
2878
ve daha ortaya çıkan bir yapıya sahip.
12:25
So to contain this wave,
228
745533
2544
Dolayısıyla bu dalgayı kontrol altına almak,
12:28
to put human agency at its center
229
748119
3044
insan failliğini merkeze koymak
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
ve ortaya çıkması muhtemel kaçınılmaz
12:33
that are likely to arise,
231
753916
1835
istenmeyen sonuçları hafifletmek için,
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
onları yeni bir tür dijital tür gibi düşünmeye başlamalıyız.
12:41
Now it's just an analogy,
233
761132
1793
Şimdi bu sadece bir benzetme,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
gerçek bir tanım değil ve mükemmel değil.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
Başlangıç olarak, geleneksel anlamda biyolojik olmadıkları açıktır,
12:50
but just pause for a moment
236
770141
2377
ancak bir an için durun
12:52
and really think about what they already do.
237
772560
2836
ve halihazırda ne yaptıklarını gerçekten düşünün.
12:55
They communicate in our languages.
238
775438
2627
Bizim dillerimizle iletişim kuruyorlar.
12:58
They see what we see.
239
778107
2127
Bizim gördüklerimizi görüyorlar.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
Hayal edilemeyecek kadar büyük miktarda bilgi tüketiyorlar.
13:04
They have memory.
241
784739
1376
Hafızaları var.
13:06
They have personality.
242
786991
1752
Kişilikleri var.
13:09
They have creativity.
243
789493
1710
Yaratıcılıkları var.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
Hatta bir dereceye kadar akıl yürütebilir ve ilkel planlar formüle edebilirler.
13:16
They can act autonomously if we allow them.
245
796709
3128
Eğer izin verirsek özerk olarak hareket edebilirler.
13:20
And they do all this at levels of sophistication
246
800546
2294
Tüm bunları, şimdiye kadar sadece bir araçtan
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
bildiğimiz her şeyin çok ötesinde sofistike seviyelerde yapıyorlar.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Dolayısıyla YZ’nın esas olarak matematik ya da kodla ilgili olduğunu söylemek,
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
biz insanların esas olarak karbon ve suyla ilgili olduğumuzu söylemek gibidir.
13:37
It's true, but it completely misses the point.
250
817897
3795
Bu doğru ama asıl noktayı tamamen gözden kaçırıyor.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
Evet, anlıyorum, bu çok çarpıcı bir düşünce ama dürüst olmak gerekirse
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
bu çerçevenin kritik konulara odaklanmamıza
yardımcı olduğunu düşünüyorum.
13:52
What are the risks?
253
832745
1585
Riskler nelerdir?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Koymamız gereken sınırlar nelerdir?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Ne tür bir yapay zeka inşa etmek ya da inşa edilmesine izin vermek istiyoruz?
14:04
This is a story that's still unfolding.
256
844465
2377
Bu hâlâ ortaya çıkmakta olan bir hikaye.
14:06
Nothing should be accepted as a given.
257
846884
2544
Hiçbir şey verili olarak kabul edilmemelidir.
14:09
We all must choose what we create.
258
849428
2544
Hepimiz ne yaratacağımızı seçmeliyiz.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Dünyaya hangi YZ’leri getireceğimizi ya da getirmeyeceğimizi.
14:18
These are the questions for all of us here today,
260
858604
2836
Bunlar bugün burada bulunan
14:21
and all of us alive at this moment.
261
861440
2586
ve şu anda hayatta olan hepimiz için sorular.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Benim için bu teknolojinin faydaları şaşırtıcı derecede açık
14:28
and they inspire my life's work every single day.
263
868989
3546
ve her gün hayatımın çalışmalarına ilham veriyorlar.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Ama açıkçası, kendi adlarına konuşacaklar.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
Yıllar boyunca, riskleri vurgulamaktan ve olumsuzluklardan bahsetmekten
14:40
and talking about downsides.
266
880668
1710
asla kaçınmadım.
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
Bu şekilde düşünmek, hepimizi bekleyen büyük zorluklara
14:46
that lie ahead for all of us.
268
886298
1836
odaklanmamıza yardımcı oluyor.
14:48
But let's be clear.
269
888843
1418
Ancak açık olalım.
14:50
There is no path to progress
270
890719
2128
Teknolojiyi geride bırakarak ilerleyebileceğimiz bir yol yok.
14:52
where we leave technology behind.
271
892888
2169
14:55
The prize for all of civilization is immense.
272
895683
3795
Tüm uygarlık için ödül çok büyük.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
Sağlık ve eğitim alanlarında, iklim krizine karşı çözümlere ihtiyacımız var.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
Eğer yapay zeka potansiyelinin sadece bir kısmını ortaya koyarsa,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
önümüzdeki on yıl insanlık tarihinin en üretken dönemi olacak.
15:13
Here's another way to think about it.
276
913701
2002
İşte bunu düşünmenin başka bir yolu.
15:15
In the past,
277
915744
1293
Geçmişte,
ekonomik büyümenin kilidini açmak
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
genellikle büyük dezavantajlarla birlikte geliyordu.
15:21
The economy expanded as people discovered new continents
279
921500
3712
İnsanlar yeni kıtalar keşfettikçe
ve yeni sınırlar açtıkça ekonomi de genişledi.
15:25
and opened up new frontiers.
280
925254
2002
15:28
But they colonized populations at the same time.
281
928632
3045
Ama aynı zamanda nüfusları da sömürgeleştirdiler.
15:32
We built factories,
282
932595
1710
Fabrikalar inşa ettik,
15:34
but they were grim and dangerous places to work.
283
934305
3044
ancak buralar çalışmak için acımasız ve tehlikeli yerlerdi.
15:38
We struck oil,
284
938017
1918
Petrol bulduk ama gezegeni kirlettik.
15:39
but we polluted the planet.
285
939977
1627
15:42
Now because we are still designing and building AI,
286
942146
3170
Şimdi hâlâ yapay zeka tasarlayıp inşa ettiğimiz için,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
bunu daha iyi, radikal bir şekilde daha iyi yapma potansiyeline
15:49
radically better.
288
949153
1335
ve fırsatına sahibiz.
15:51
And today, we're not discovering a new continent
289
951071
2628
Bugün, yeni bir kıta keşfedip kaynaklarını yağmalamıyoruz.
15:53
and plundering its resources.
290
953741
1918
15:56
We're building one from scratch.
291
956285
1919
Sıfırdan bir kıta inşa ediyoruz.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
Bazen insanlar veri ya da çiplerin 21.yüzyılın yeni petrolü olduğunu söylüyor
16:03
but that's totally the wrong image.
293
963959
2002
ama bu tamamen yanlış bir imaj.
16:06
AI is to the mind
294
966587
1919
Nükleer füzyon enerji için neyse
16:08
what nuclear fusion is to energy.
295
968547
2753
yapay zeka da zihin için odur.
16:12
Limitless, abundant,
296
972259
2670
Sınırsız, bol, dünyayı değiştiren.
16:14
world-changing.
297
974970
1544
16:17
And AI really is different,
298
977389
2962
YZ gerçekten farklı
ve bu da onun hakkında yaratıcı
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
ve dürüst bir şekilde düşünmemiz gerektiği anlamına geliyor.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Gelmekte olan şeyle başa çıkabilmek için
16:27
to the very limits
301
987274
1752
analojilerimizi ve metaforlarımızı
16:29
to be able to grapple with what's coming.
302
989068
2252
en uç noktalara kadar zorlamalıyız.
16:31
Because this is not just another invention.
303
991362
2878
Çünkü bu sadece başka bir icat değil.
16:34
AI is itself an infinite inventor.
304
994907
3503
Yapay zekanın kendisi sonsuz bir mucit.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
Evet, bu aynı anda hem heyecan verici, hem umut verici, hem endişe verici,
16:42
and intriguing all at once.
306
1002164
2044
hem de merak uyandırıcı.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
Dürüst olmak gerekirse, oldukça gerçeküstü.
16:47
But step back,
308
1007836
1293
Ancak bir adım geri çekilip,
16:49
see it on the long view of glacial time,
309
1009171
3462
buzul zamanının uzun bakış açısıyla baktığımızda,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
bunlar gerçekten de bugün sahip olduğumuz en uygun metaforlar.
16:57
Since the beginning of life on Earth,
311
1017471
3003
Dünya üzerindeki yaşamın başlangıcından bu yana
17:00
we've been evolving, changing
312
1020516
2961
evrim geçiriyor, değişiyor
17:03
and then creating everything around us in our human world today.
313
1023477
4171
ve bugün insan dünyamızda etrafımızdaki her şeyi yaratıyoruz.
17:08
And AI isn't something outside of this story.
314
1028232
3003
Yapay zeka bu hikayenin dışında bir şey değil.
17:11
In fact, it's the very opposite.
315
1031569
2961
Aslında tam tersi.
17:15
It's the whole of everything that we have created,
316
1035197
3170
Yarattığımız her şeyin,
hepimizin etkileşime girebileceği ve faydalanabileceği bir şeye
17:18
distilled down into something that we can all interact with
317
1038367
3545
17:21
and benefit from.
318
1041912
1377
indirgenmiş halidir.
17:23
It's a reflection of humanity across time,
319
1043872
3504
İnsanlığın zaman içindeki bir yansımasıdır
17:27
and in this sense,
320
1047418
1251
ve bu anlamda yeni bir tür değildir.
17:28
it isn't a new species at all.
321
1048711
1918
17:31
This is where the metaphors end.
322
1051213
1960
Metaforların bittiği yer burası.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Caspian bir dahaki sefere sorduğunda ona şunu söyleyeceğim.
17:37
AI isn't separate.
324
1057219
1460
Yapay zeka ayrı değildir.
17:39
AI isn't even in some senses, new.
325
1059388
3295
YZ bazı açılardan yeni bile değil.
17:43
AI is us.
326
1063517
1126
YZ biziz.
17:45
It's all of us.
327
1065394
1210
Hepimiziz.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
Bu belki de altı yaşındaki bir çocuğun bile
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
anlayabileceği en umut verici ve hayati şey.
17:54
As we build out AI,
330
1074528
1376
YZ’yi oluştururken,
17:55
we can and must reflect all that is good,
331
1075946
3545
iyi olan her şeyi, sevdiğimiz her şeyi,
17:59
all that we love,
332
1079533
1126
insanlığa dair özel olan
18:00
all that is special about humanity:
333
1080701
2753
her şeyi yansıtabiliriz ve yansıtmalıyız:
18:03
our empathy, our kindness,
334
1083495
2169
empatimizi, nezaketimizi,
18:05
our curiosity and our creativity.
335
1085664
2169
merakımızı ve yaratıcılığımızı.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
İddia ediyorum ki bu, 21. yüzyılın en büyük zorluğu
18:14
but also the most wonderful,
337
1094381
2211
ama aynı zamanda hepimiz için en harika,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
ilham verici ve umut verici fırsatıdır.
18:20
Thank you.
339
1100429
1168
Teşekkür ederim.
18:21
(Applause)
340
1101639
4879
(Alkışlar)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Chris Anderson: Teşekkür ederim Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
Bu inanılmaz bir vizyon ve süper güçlü bir metafor.
18:32
You're in an amazing position right now.
343
1112066
1960
Şu anda inanılmaz bir konumdasın.
18:34
I mean, you were connected at the hip
344
1114026
1793
Yani, OpenAI’da gerçekleşen muhteşem çalışmaya
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
göbeğinizden bağlısınız.
18:38
You’re going to have resources made available,
346
1118614
2169
Kaynaklara sahip olacaksınız,
18:40
there are reports of these giant new data centers,
347
1120824
4046
bu devasa yeni veri merkezleri hakkında raporlar var,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
100 milyar dolar yatırım yapıldı vb.
18:48
And a new species can emerge from it.
349
1128082
3837
Bundan yeni bir tür ortaya çıkabilir.
18:52
I mean, in your book,
350
1132294
1502
Demek istediğim, kitabınızda
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
inanılmaz iyimser bir vizyon çizmenin yanı sıra,
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
yapay zekanın tehlikeleri konusunda da çok etkili konuştunuz.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Merak ediyorum, şu anda sahip olduğunuz görüşe göre,
19:04
what is it that most keeps you up at night?
354
1144431
2336
sizi geceleri en çok uyutmayan şey nedir?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
Mustafa Süleyman: Bence en büyük risk,
kötümserlikten kaçınma tuzağı dediğim şeye takılıp kalmamız.
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
19:11
You know, we have to have the courage to confront
357
1151855
2586
Bilirsiniz, gördüğümüz tüm faydalardan en iyi şekilde yararlanmak için
19:14
the potential of dark scenarios
358
1154483
1960
karanlık senaryoların potansiyeliyle yüzleşme cesaretine sahip olmalıyız.
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
İyi haber şu ki, son iki ya da üç yıla bakarsanız,
19:23
there have been very, very few downsides, right?
361
1163325
2961
çok ama çok az olumsuzluk olduğunu görürsünüz, değil mi?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
LLM’nin ne gibi bir zarara yol açtığını açıkça söylemek çok zor.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
Ancak bu, önümüzdeki 10 yıl boyunca
gidişatın böyle olacağı anlamına gelmiyor.
19:34
over the next 10 years.
364
1174503
1168
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Bence birkaç spesifik yetkinliğe dikkat ederseniz,
19:39
take for example, autonomy.
366
1179174
1835
örneğin otonomiyi ele alalım.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
Otonomi çok açık bir şekilde
19:43
over which we increase risk in our society.
368
1183387
2794
toplumumuzda riski arttırdığımız bir eşiktir.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
Çok ama çok yakından adım atmamız gereken bir şey.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
Diğeri ise özyinelemeli kendini geliştirme gibi bir şey olabilir.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Modelin bağımsız olarak kendini geliştirmesine, kodunu güncellemesine,
19:56
update its own code,
372
1196483
1460
gözetim olmadan
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
bir ortamı keşfetmesine izin verirseniz
bilirsiniz, nasıl çalıştığını değiştirmek için kontrolde bir insan olmadan,
20:01
without a human in control to change how it operates,
374
1201321
3295
20:04
that would obviously be more dangerous.
375
1204616
1919
bu açıkça daha tehlikeli olacaktır.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Ama bence hâlâ bundan çok uzaktayız.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Bence bununla gerçekten yüzleşmemiz için daha beş ila on yıl var.
20:12
But it's time to start talking about it now.
378
1212958
2085
Ama artık bunun hakkında konuşmaya başlamanın zamanı geldi.
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
CA: Dijital bir tür, herhangi bir biyolojik türden farklı olarak,
20:17
can replicate not in nine months,
380
1217588
2002
dokuz ayda değil,
20:19
but in nine nanoseconds,
381
1219631
1669
dokuz nanosaniyede çoğalabilir
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
ve kendisinin belirsiz sayıda kopyasını üretebilir,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
bunların hepsi birçok yönden sahip olduğumuzdan daha fazla güce sahiptir.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
Demek istediğim, istenmeyen sonuçların
ortaya çıkma olasılığı oldukça yüksek görünüyor.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
Eğer bir sorun olursa, bunun bir saat içinde
20:35
it could happen in an hour?
386
1235689
1919
gerçekleşebileceği doğru değil mi?
20:37
MS: No.
387
1237649
1335
MS: Hayır.
20:38
That is really not true.
388
1238984
1752
Bu gerçekten doğru değil.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Bence bunu gösteren hiçbir kanıt yok.
20:42
And I think that, you know,
390
1242863
1585
Bence, bilirsiniz,
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
bu genellikle “zeka patlaması” olarak adlandırılır.
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
Bence bu hepimizin keşfetmeye meraklı olduğu teorik,
20:51
that we're all kind of curious to explore,
393
1251079
2420
varsayımsal bir şey olabilir,
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
ancak böyle bir şeyin yakınında olduğumuza dair hiçbir kanıt yok.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
Bence kelimelerimizi çok dikkatli seçmemiz çok önemli.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
Çünkü haklısınız, tür çerçevesinin zayıflıklarından biri de bu;
21:03
that we will design the capability for self-replication into it
397
1263801
4337
insanlar bunu yapmayı seçerse,
kendi kendini kopyalama yeteneğini tasarlayacağız.
21:08
if people choose to do that.
398
1268180
1668
21:09
And I would actually argue that we should not,
399
1269890
2169
Ben aslında bunu yapmamamız gerektiğini,
bunun geri adım atmamız gereken
21:12
that would be one of the dangerous capabilities
400
1272059
2210
tehlikeli yeteneklerden biri olduğunu iddia ediyorum, değil mi?
21:14
that we should step back from, right?
401
1274269
1835
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
Yani bunun kazara “ortaya çıkma” ihtimali yok.
21:19
I really think that's a very low probability.
403
1279942
2502
Bunun gerçekten çok düşük bir olasılık olduğunu düşünüyorum.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Mühendisler bu kabiliyetleri kasıtlı olarak tasarlarlarsa ortaya çıkacaktır.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
Eğer bunları kasıtlı olarak tasarlamak için yeterince çaba göstermezlerse.
21:30
And so this is the point of being explicit
406
1290160
2294
İşte bu nedenle, tasarım yoluyla güvenliği
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
çok erken bir aşamada sağlamaya çalışmak konusunda açık ve şeffaf olmak gerekir.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
CA: Teşekkür ederim, insanlığın bu yeni şeye kendimizin en iyi yanlarını
21:45
the best parts of ourselves,
409
1305008
1877
enjekte etme vizyonunuz,
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
belirli durumlarda sahip olabileceğimiz tüm o tuhaf, biyolojik, acayip,
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
korkunç eğilimlerden kaçınmak,
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
yani bu çok ilham verici bir vizyon.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
Buraya geldiğiniz ve TED’de paylaştığınız için çok teşekkür ederim.
21:58
Thank you, good luck.
414
1318355
1210
Teşekkürler, iyi şanslar.
21:59
(Applause)
415
1319565
1876
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7