6 big ethical questions about the future of AI | Genevieve Bell

93,420 views ・ 2021-01-14

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Gözden geçirme: Ramazan Şen
Size yapay zekâ hakkında bir hikâye anlatayım.
Sidney’de 1 Bligh Caddesi’nde bir bina var.
Çok sayıda hükûmet dairesine ve meşgul insana
00:13
Let me tell you a story about artificial intelligence.
0
13286
2999
ev sahipliği yapıyor.
Dışarıdan Amerikan bilim kurgusundan çıkan bir şeye benziyor:
00:16
There's a building in Sydney at 1 Bligh Street.
1
16309
3207
Parıltılı camlar ve kıvrımlı çizgiler
00:19
It houses lots of government apartments
2
19540
2230
00:21
and busy people.
3
21794
1449
ve bir parça turuncu heykel.
00:23
From the outside, it looks like something out of American science fiction:
4
23267
3524
İçeride, zemin katta mükemmel bir kahveci
ve Sidney'deki en sevdiğim asansörler var.
00:26
all gleaming glass and curved lines,
5
26815
2714
Çok güzeller,
00:29
and a piece of orange sculpture.
6
29553
2167
neredeyse canlı görünüyorlar.
00:31
On the inside, it has excellent coffee on the ground floor
7
31744
2928
Asansörler beni büyülüyor.
Birçok sebepten dolayı.
00:34
and my favorite lifts in Sydney.
8
34696
1651
Çünkü asansörler geleceği görebileceğiniz yerlerden biri.
00:36
They're beautiful;
9
36371
1301
00:37
they look almost alive.
10
37696
2120
21.yüzyılda asansörler ilgi çekici
00:40
And it turns out I'm fascinated with lifts.
11
40220
2088
çünkü yapay zekânın siz farkında olmadan
00:42
For lots of reasons.
12
42332
1364
00:43
But because lifts are one of the places you can see the future.
13
43720
3143
size dokunacağı ilk yerlerden biri.
00:46
In the 21st century, lifts are interesting
14
46887
2492
Dünyanın dört bir yanındaki birçok binada,
00:49
because they're one of the first places that AI will touch you
15
49403
2912
asansörler bir dizi algoritma çalıştırıyor.
Bir tür proto-yapay zekâ.
00:52
without you even knowing it happened.
16
52339
2039
00:54
In many buildings all around the world,
17
54919
2565
Bu, düğmeye basmak için asansöre yaklaşmadan önce orada olmanın
00:57
the lifts are running a set of algorithms.
18
57508
2491
beklenildiği anlamına gelir.
01:00
A form of protoartificial intelligence.
19
60023
2667
Şimdiden tüm taşımayı yeniden düzenliyor.
01:03
That means before you even walk up to the lift to press the button,
20
63071
4284
Enerji tasarrufu yapmak
ve yoğunluğa doğru her zaman aşağı iner.
01:07
it's anticipated you being there.
21
67379
1775
Düğmeye gerçekten bastığınız zaman,
01:09
It's already rearranging all the carriages.
22
69490
2936
insanları, çevreyi, binayı
ve inşa edilmiş dünyayı anlamlandıran
01:12
Always going down, to save energy,
23
72450
1627
01:14
and to know where the traffic is going to be.
24
74101
2143
bütün bir sistemin parçasısınız demek.
01:16
By the time you've actually pressed the button,
25
76268
2262
AI dendiğinde, çoğu zaman robotların dünyasından bahsettiğimizi biliyorum.
01:18
you're already part of an entire system
26
78554
1872
01:20
that's making sense of people and the environment
27
80450
2310
Son 100 yılda hayal gücümüzün bilim kurgu ile
01:22
and the building and the built world.
28
82784
1991
meşgul olması çok kolay.
01:25
I know when we talk about AI, we often talk about a world of robots.
29
85481
3810
Ben AI diyorum ve siz “Terminatör”ü düşünüyorsunuz.
01:29
It's easy for our imaginations to be occupied with science fiction,
30
89720
3468
Bir yerlerde, bizim için yapay zekâ ile yerleşik dünya arasında bağlantı kurmak,
01:33
well, over the last 100 years.
31
93212
1833
anlatması daha zor bir hikâye.
01:35
I say AI and you think "The Terminator."
32
95069
2534
Ancak gerçek şu ki, AI zaten çevremizdeki her yerde.
01:38
Somewhere, for us, making the connection between AI and the built world,
33
98728
4532
Birçok yerde.
Binalarda ve sistemlerde.
01:43
that's a harder story to tell.
34
103284
1690
200 yılı aşkın sanayileşme,
01:45
But the reality is AI is already everywhere around us.
35
105395
3727
AI’nın sistem düzeyinde ölçeklendirme yolunu kolayca bulacağını gösteriyor.
01:49
And in many places.
36
109434
1215
01:50
It's in buildings and in systems.
37
110673
2587
Sonuçta, bu tarihin anlatılması, yapmanız gereken tek şeyin
01:53
More than 200 years of industrialization
38
113284
2063
bir teknoloji bulmak, ölçeğe ulaşmak olduğunu
01:55
suggest that AI will find its way to systems-level scale relatively easily.
39
115371
4303
ve devrimin geleceğini gösteriyor.
Mekanizasyon, otomasyon ve dijitalleşme hikâyesi,
02:00
After all, one telling of that history
40
120173
2054
02:02
suggests that all you have to do is find a technology,
41
122251
2540
teknolojinin rolüne ve önemine işaret ediyor.
02:04
achieve scale and revolution will follow.
42
124815
2426
02:07
The story of mechanization, automation and digitization
43
127919
4277
Bu teknolojik dönüşüm hikâyeleri,
ölçeği normal gösteriyor.
02:12
all point to the role of technology and its importance.
44
132220
3182
Veya beklenilen.
Veya durağan.
Hatta bazen öngörülebilir.
02:16
Those stories of technological transformation
45
136274
2461
02:18
make scale seem, well, normal.
46
138759
2714
Ama ayrıca odak noktasını doğrudan teknoloji ve değişikliğine koyar.
02:21
Or expected.
47
141497
1150
02:23
And stable.
48
143052
1341
Ama bir teknolojiyi ölçeklendirmenin ve bir sistem kurmanın
02:24
And sometimes even predictable.
49
144417
2066
daha fazlasını gerektirdiğine inanıyorum.
02:27
But it also puts the focus squarely on technology and technology change.
50
147012
4023
3Ai Enstitüsü'nü Eylül 2017'de Avustralya Ulusal Üniversitesi'nde
02:31
But I believe that scaling a technology and building a system
51
151964
3483
kurduk.
02:35
requires something more.
52
155471
1680
Yanıltıcı derecede basit bir misyonu var:
02:38
We founded the 3Ai Institute at the Australian National University
53
158260
3762
AI’yı güvenli, sürdürülebilir ve sorumlu bir şekilde
ölçeklendirmek için yeni bir mühendislik dalı kurmak.
02:42
in September 2017.
54
162046
1729
02:44
It has one deceptively simple mission:
55
164101
2794
Peki 21. yüzyılda yeni bir mühendislik dalı nasıl inşa edilir?
02:46
to establish a new branch of engineering
56
166919
1911
Şöyle ki, varoluşu için deneysel bir
02:48
to take AI safely, sustainably and responsibly to scale.
57
168854
4198
eğitim programı aracılığıyla öğretiyoruz.
02:53
But how do you build a new branch of engineering in the 21st century?
58
173076
3253
Avustralya'nın en büyük
otonom madenlerinden biri olan Shakespeare’in doğum yeri,
02:56
Well, we're teaching it into existence
59
176353
2389
02:58
through an experimental education program.
60
178766
2658
Büyük Set Resifi gibi
çok çeşitli konumlarda varlığını araştırıyoruz.
03:01
We're researching it into existence
61
181876
2019
03:03
with locations as diverse as Shakespeare's birthplace,
62
183919
2769
Sibernetik sistemlerin karmaşıklığına dikkat ederek,
03:06
the Great Barrier Reef,
63
186712
1802
varoluşu için teorileştiriyoruz.
03:08
not to mention one of Australia's largest autonomous mines.
64
188538
2888
Yeni ve faydalı bir şey inşa etmeye çalışıyoruz.
03:11
And we're theorizing it into existence,
65
191892
2509
Yeni nesil eleştirel düşünürler ve eleştirmenler yaratacak bir şey.
03:14
paying attention to the complexities of cybernetic systems.
66
194425
3023
Tüm bunları, AI’nın birçok geçmişini
03:18
We're working to build something new and something useful.
67
198250
2954
ve hikâyesini daha zengin bir şekilde anlayarak yapıyoruz.
03:21
Something to create the next generation of critical thinkers and critical doers.
68
201228
3776
Öğretim, araştırma ve katılım yoluyla işbirliği içinde
03:25
And we're doing all of that
69
205736
1461
03:27
through a richer understanding of AI's many pasts and many stories.
70
207221
3973
ve kolektif olarak çalışarak
ve sorunların çözümü kadar
03:31
And by working collaboratively and collectively
71
211964
3024
soruların çerçevesine odaklanarak.
03:35
through teaching and research and engagement,
72
215012
3540
Tek bir yapay zekâ yapmıyoruz,
birçoğu için olanaklar yaratıyoruz.
03:38
and by focusing as much on the framing of the questions
73
218576
2684
Hayal gücümüzü yeniden bağımsızlaştırmak
03:41
as the solving of the problems.
74
221284
1761
ve bir dizi farklı konuşma ve olasılığa yer bırakan
03:43
We're not making a single AI,
75
223505
1929
03:45
we're making the possibilities for many.
76
225458
2278
bir müfredat ve pedagoji oluşturmak için aktif olarak çalışıyoruz.
03:48
And we're actively working to decolonize our imaginations
77
228280
3079
Yapıyoruz ve yeniden yapıyoruz.
03:51
and to build a curriculum and a pedagogy
78
231383
2373
Her zaman devam eden bir iş olduğumuzu biliyorum.
03:53
that leaves room for a range of different conversations and possibilities.
79
233780
3745
Ama işte bir geleceği
ölçeklendirme sorununa nasıl yaklaştığımıza dair küçük bir bakış.
03:58
We are making and remaking.
80
238514
2277
04:00
And I know we're always a work in progress.
81
240815
2838
Kendi tarihimize bağlı olduğumuzdan emin olarak başlıyoruz.
04:04
But here's a little glimpse
82
244593
1302
04:05
into how we're approaching that problem of scaling a future.
83
245919
3282
Aralık 2018'de
New South Wales-Queensland sınırındaki
Brewarrina kasabasına gittim.
04:09
We start by making sure we're grounded in our own history.
84
249982
2834
Burası Aborijin halkının, farklı grupların bir araya gelmeleri,
04:13
In December of 2018,
85
253537
1365
04:14
I took myself up to the town of Brewarrina
86
254926
2056
törenleri yapmaları,
buluşmaları, birlikte olmaları için bir buluşma yeriydi.
04:17
on the New South Wales-Queensland border.
87
257006
2587
Orada, Barwon Nehri üzerinde, Avustralya'daki en eski
04:19
This place was a meeting place for Aboriginal people,
88
259617
2515
ve en büyük Aborjin balık tuzakları sistemlerinden biri olan
04:22
for different groups,
89
262156
1159
04:23
to gather, have ceremonies, meet, to be together.
90
263339
3256
bir dizi balık savağı var.
Bu sistem, bir dizi balık ağına benzeyen 1,8 kilometrelik,
04:26
There, on the Barwon River, there's a set of fish weirs
91
266969
2600
04:29
that are one of the oldest and largest systems
92
269593
2158
taş duvardan oluşuyor
ve "Us" nehrin aşağısına işaret ediyor
04:31
of Aboriginal fish traps in Australia.
93
271775
2098
ve balıkların suyun farklı yüksekliklerinde yakalanmasını sağlıyor.
04:34
This system is comprised of 1.8 kilometers of stone walls
94
274214
3283
Ayrıca, suyun hareket şeklini değiştirmek ve büyük balıkları
04:37
shaped like a series of fishnets
95
277521
1691
ve küçük balıkları depolamak
04:39
with the "Us" pointing down the river,
96
279236
2341
ve bu balıkları serin, temiz akan suda tutmak için tasarlanmış,
04:41
allowing fish to be trapped at different heights of the water.
97
281601
2937
depolama için farklı yükseklikte duvarları olan balık tutma kafesleri.
04:44
They're also fish holding pens with different-height walls for storage,
98
284562
3349
04:47
designed to change the way the water moves
99
287935
2150
Bu balık tuzağı sistemi, hem nehirlerin buluştuğu
04:50
and to be able to store big fish and little fish
100
290109
2253
hem de kültürlerin buluştuğu bir yerde toplanan insanları
04:52
and to keep those fish in cool, clear running water.
101
292386
2673
beslemenizi sağlamanın bir yoluydu.
Bizzat kayalarla veya tuzaklarla ilgili değil.
04:56
This fish-trap system was a way to ensure that you could feed people
102
296060
3263
04:59
as they gathered there in a place that was both a meeting of rivers
103
299347
3237
Bu tuzakların yarattığı sistemle ilgili.
05:02
and a meeting of cultures.
104
302608
1309
Teknik bilgi, kültürel bilgi
05:04
It isn't about the rocks or even the traps per se.
105
304441
3562
ve ekolojik bilgiyi
içeren bir program.
05:08
It is about the system that those traps created.
106
308027
3063
Bu sistem eski.
Bazı arkeologlar bunun 40.000 yıl kadar eski olduğunu düşünüyor.
05:11
One that involves technical knowledge,
107
311114
2023
05:13
cultural knowledge
108
313161
1485
Kayıtara göre bunları en son 1910′larda kullanmışız.
05:14
and ecological knowledge.
109
314670
1680
05:16
This system is old.
110
316792
1730
Olağanüstü uzun ömürlü ve inanılmaz bir ölçeği vardı.
05:18
Some archaeologists think it's as old as 40,000 years.
111
318546
2880
05:21
The last time we have its recorded uses is in the nineteen teens.
112
321760
3870
Benim için bir ilham.
Bize anlamlı bir şey inşa etmenin vaadini
05:26
It's had remarkable longevity and incredible scale.
113
326164
3245
ve zorluğunu hatırlatması için,
burada Enstitü'de duvarlarımızda savağın bir fotoğrafı var.
05:29
And it's an inspiration to me.
114
329871
2000
Ayrıca bize, insanların sistemler kurduğu
05:32
And a photo of the weir is on our walls here at the Institute,
115
332263
3149
ve aynı sistemleri nesiller boyu sürdürdüğü bir yerde
05:35
to remind us of the promise and the challenge
116
335436
2110
sistemler inşa ettiğimizi hatırlatması için.
05:37
of building something meaningful.
117
337570
1873
Bu sadece tarihimiz değil,
05:39
And to remind us that we're building systems
118
339467
2055
yeni bir mühendislik dalı kurmaya çalışırken mirasımız.
05:41
in a place where people have built systems
119
341546
2015
05:43
and sustained those same systems for generations.
120
343585
2476
Bu mirası ve amaç duygumuzu geliştirmek
05:46
It isn't just our history,
121
346514
1666
ve gelecek hakkında sorular sormak için net bir çerçeveye ihtiyacımız var.
05:48
it's our legacy as we seek to establish a new branch of engineering.
122
348204
3611
Hazır veya kolay cevabı olmayan sorular.
05:52
To build on that legacy and our sense of purpose,
123
352284
2872
Burada mesele soru sormak.
05:55
I think we need a clear framework for asking questions about the future.
124
355180
3929
Geleneksel problem çözme yaklaşımının ötesine,
05:59
Questions for which there aren't ready or easy answers.
125
359744
3065
daha karmaşık olan soru sorma
06:03
Here, the point is the asking of the questions.
126
363262
2944
ve soru çerçeveleme yaklaşımına
geçmeniz gerektiğine inanıyoruz.
06:06
We believe you need to go beyond the traditional approach
127
366659
2690
Çünkü bunu yaparken her türden yeni olasılık ve yeni zorluklar
06:09
of problem-solving,
128
369373
1405
06:10
to the more complicated one of question asking
129
370802
3085
ortaya çıkarırsınız.
Benim için şu anda yapay zekâyı güvenli,
06:13
and question framing.
130
373911
1680
sürdürülebilir ve sorumlu bir şekilde ölçeklendirmeye yönelik
06:15
Because in so doing, you open up all kinds of new possibilities
131
375950
2969
yaklaşımımızı çerçeveleyen altı büyük soru var.
06:18
and new challenges.
132
378943
1475
06:20
For me, right now,
133
380442
1978
Özerklik, aracı, güvence,
06:22
there are six big questions that frame our approach
134
382444
2794
göstergeler, arayüzler
ve amaçlılık ile ilgili sorular.
06:25
for taking AI safely, sustainably and responsibly to scale.
135
385262
3056
Sorduğumuz ilk soru basit bir soru.
06:28
Questions about autonomy,
136
388730
1486
06:30
agency, assurance,
137
390240
1837
Sistem otonom mu?
06:32
indicators, interfaces and intentionality.
138
392101
2777
Bligh Caddesi'ndeki şu asansörü düşünün.
Gerçek şu ki, bir gün bu asansör otonom olabilir.
06:36
The first question we ask is a simple one.
139
396284
2406
Harekete geçmesi söylenmeden hareket edebilecek.
06:39
Is the system autonomous?
140
399038
1680
06:41
Think back to that lift on Bligh Street.
141
401284
2118
Ama tamamen otonom değil, değil mi?
06:43
The reality is, one day, that lift may be autonomous.
142
403879
2627
O Bligh Street binasından çıkıp
06:46
Which is to say it will be able to act without being told to act.
143
406530
3134
bir bira içmek için Circular Quay'e inemez.
Aşağı yukarı hareket eder, o kadar.
06:50
But it isn't fully autonomous, right?
144
410219
1937
Ama bunu kendi yapar.
06:52
It can't leave that Bligh Street building
145
412180
2580
06:54
and wonder down to Circular Quay for a beer.
146
414784
2800
Bu yönden otonom.
Sorduğumuz ikinci soru şu:
06:58
It goes up and down, that's all.
147
418093
2230
Sistemin aracısı var mı?
07:00
But it does it by itself.
148
420347
2341
07:02
It's autonomous in that sense.
149
422712
2000
Bu sistemin, belirli koşullar altında belirli türden şeyler yapmasını engelleyen
07:05
The second question we ask:
150
425744
2381
bir yerde olan kontrolleri ve sınırları var mı?
07:08
does this system have agency?
151
428149
1866
07:10
Does this system have controls and limits that live somewhere
152
430910
3778
Asansörlerin gerçekliği, kesinlikle durum bu.
İçinde bulunduğunuz herhangi bir asansör düşünün.
07:14
that prevent it from doing certain kinds of things under certain conditions.
153
434712
3793
Asansör kafesinde, bir acil servis görevlisinin
bir anahtarı tüm sisteme sokup geçersiz kılabileceği
07:19
The reality with lifts, that's absolutely the case.
154
439061
3270
kırmızı bir anahtar yuvası olur.
07:22
Think of any lift you've been in.
155
442355
1904
Peki bu sistem AI güdümlü olduğunda ne olur?
07:24
There's a red keyslot in the elevator carriage
156
444283
2620
Anahtar nerede olur?
07:26
that an emergency services person can stick a key into
157
446927
2587
Fiziksel bir anahtar mı, dijital bir anahtar mı?
07:29
and override the whole system.
158
449538
1719
Kim kullanacak?
Acil servis çalışanları mı?
07:31
But what happens when that system is AI-driven?
159
451641
2500
Bunun olup olmadığını nasıl anlarsınız?
07:34
Where does the key live?
160
454165
1206
Bunların hepsi asansörde size nasıl tezahür edecekti?
07:35
Is it a physical key, is it a digital key?
161
455395
2230
07:37
Who gets to use it?
162
457649
1349
07:39
Is that the emergency services people?
163
459022
1928
Sorduğumuz üçüncü soru, güvence hakkında nasıl düşündüğümüz.
07:40
And how would you know if that was happening?
164
460974
2189
07:43
How would all of that be manifested to you in the lift?
165
463187
3287
Tüm parçaları hakkında nasıl düşünüyoruz:
Emniyet, güvenlik, güven, risk, sorumluluk, yönetilebilirlik,
07:47
The third question we ask is how do we think about assurance.
166
467752
3817
açıklanabilirlik, etik, kamu politikası, hukuk, düzenleme?
07:51
How do we think about all of its pieces:
167
471593
1912
07:53
safety, security, trust, risk, liability, manageability,
168
473529
3557
Size sistemin güvenli ve işliyor olduğunu nasıl söylerdik?
07:57
explicability, ethics, public policy, law, regulation?
169
477110
3657
Sorduğumuz dördüncü soru,
bu AI güdümlü sistemlerde arayüzlerimizin ne olacağı.
08:01
And how would we tell you that the system was safe and functioning?
170
481545
3778
Onlarla konuşacak mıyız?
Bizimle veya birbirleriyle konuşacaklar mı?
Bildiğimiz bir dizi teknolojiye sahip olmak, bazılarımız için,
08:06
The fourth question we ask
171
486514
1699
08:08
is what would be our interfaces with these AI-driven systems.
172
488237
2874
tüm yaşamlarımız için, şimdi birdenbire
tamamen farklı şekillerde davranmak ne anlama gelecek?
08:11
Will we talk to them?
173
491135
1174
08:12
Will they talk to us, will they talk to each other?
174
492333
2421
Asansörler, arabalar, elektrik şebekesi, trafik ışıkları, evinizdeki şeyler.
08:14
And what will it mean to have a series of technologies we've known,
175
494778
3174
08:17
for some of us, all our lives,
176
497976
1475
Bu yapay zekâ destekli sistemler için beşinci soru:
08:19
now suddenly behave in entirely different ways?
177
499475
2237
08:21
Lifts, cars, the electrical grid, traffic lights, things in your home.
178
501736
3938
İyi çalıştıklarını gösteren göstergeler ne olacak?
İki yüz yıllık sanayi devrimi bize
08:27
The fifth question for these AI-driven systems:
179
507038
3301
iyi bir sistem hakkında düşünmenin en önemli iki yolunun
08:30
What will the indicators be to show that they're working well?
180
510363
3055
üretkenlik ve verimlilik olduğunu söylüyor.
08:33
Two hundred years of the industrial revolution
181
513442
2159
21. yüzyılda
bunu biraz daha genişletmek isteyebilirsiniz.
08:35
tells us that the two most important ways to think about a good system
182
515625
3286
Sistem sürdürülebilir mi,
güvenli mi, sorumlu mu?
08:38
are productivity and efficiency.
183
518935
2133
Bunları bizim için kim yargılayacak?
08:41
In the 21st century,
184
521712
1175
08:42
you might want to expand that just a little bit.
185
522911
2262
Sistemlerin kullanıcıları, bunların nasıl düzenlendiğini,
08:45
Is the system sustainable,
186
525197
1245
yönetildiğini ve inşa edildiğini anlamak isteyecek.
08:46
is it safe, is it responsible?
187
526466
2000
08:48
Who gets to judge those things for us?
188
528920
2428
Sonra bu yeni AI sistemleriyle ilgili sormanız gereken son,
08:51
Users of the systems would want to understand
189
531372
2120
belki de en kritik soru var.
08:53
how these things are regulated, managed and built.
190
533516
2581
Niyeti ne?
Sistem ne yapmak için tasarlandı
08:57
And then there's the final, perhaps most critical question
191
537737
2769
ve bunun iyi bir fikir olduğunu kim söyledi?
09:00
that you need to ask of these new AI systems.
192
540530
2817
Ya da başka bir deyişle,
bu sistemin inşa ettiği dünya ne,
09:03
What's its intent?
193
543989
1440
09:05
What's the system designed to do
194
545822
1533
bu dünya nasıl hayal ediliyor
ve bugün yaşadığımız dünyayla ilişkisi ne?
09:07
and who said that was a good idea?
195
547379
1792
09:09
Or put another way,
196
549195
1667
09:10
what is the world that this system is building,
197
550886
2675
Kim bu konuşmanın parçası olacak?
Bunu kim ifade edecek?
09:13
how is that world imagined,
198
553585
1643
Nasıl çerçevelenir ve hayal edilir?
09:15
and what is its relationship to the world we live in today?
199
555252
2864
Bu soruların basit cevapları yok.
09:18
Who gets to be part of that conversation?
200
558546
2166
09:20
Who gets to articulate it?
201
560736
1730
Bunun yerine, neyin mümkün olduğunu ve neyi hayal etmemiz,
09:22
How does it get framed and imagined?
202
562490
2400
tasarlama, inşa etme, düzenleme
ve hatta kullanımdan kaldırmamız için gerekenleri çerçevelerler.
09:26
There are no simple answers to these questions.
203
566149
2916
Bize doğru yönleri gösteriyor
09:29
Instead, they frame what's possible
204
569089
2071
ve yeni bir mühendislik dalı kurma yolunda bize yardımcı oluyorlar.
09:31
and what we need to imagine,
205
571184
2055
09:33
design, build, regulate and even decommission.
206
573263
3317
Ancak kritik sorular yeterli değil.
09:37
They point us in the right directions
207
577278
1855
Ayrıca tüm bu soruları bir arada tutmanın bir yolunu da bulmalısınız.
09:39
and help us on a path to establish a new branch of engineering.
208
579157
3317
09:42
But critical questions aren't enough.
209
582895
3016
Enstitü'de biz de,
yapay zekâyı bir sistem olarak nasıl düşüneceğimizi ve bu sistemin sınırlarını
09:46
You also need a way of holding all those questions together.
210
586880
3293
nerede ve nasıl çizeceğimizi gerçekten merak ediyoruz.
09:50
For us at the Institute,
211
590809
1166
09:51
we're also really interested in how to think about AI as a system,
212
591999
4578
Bunlar şu anda özellikle önemli şeyler gibi geliyor.
Burada, 1940'larda başlayan çalışmalardan etkilendik.
09:56
and where and how to draw the boundaries of that system.
213
596601
2992
09:59
And those feel like especially important things right now.
214
599617
2857
1944'te, antropolog Gregory Bateson ve Margaret Mead ile birlikte
10:03
Here, we're influenced by the work that was started way back in the 1940s.
215
603061
3968
matematikçi Norbert Wiener, Sibernetik üzerine
Macy Konferansları olarak bilinen bir dizi konuşma düzenledi.
10:07
In 1944, along with anthropologists Gregory Bateson and Margaret Mead,
216
607529
4142
Nihayetinde, 1946 ile 1953 arasında,
10:11
mathematician Norbert Wiener convened a series of conversations
217
611695
3485
sibernetik bayrağı altında on konferans düzenlendi.
10:15
that would become known as the Macy Conferences on Cybernetics.
218
615204
3365
Norbert Wiener tarafından tanımlandığı gibi,
10:18
Ultimately, between 1946 and 1953,
219
618593
3373
sibernetik "gelişmiş bilgi işlem teknolojilerindeki kontrol
10:21
ten conferences were held under the banner of cybernetics.
220
621990
2809
ve iletişim sorununa gerçekten hamle yapmamızı sağlayacak
10:25
As defined by Norbert Wiener,
221
625553
1438
10:27
cybernetics sought to "develop a language and techniques
222
627015
3803
bir dil ve teknikler geliştirmeye" çalıştı.
10:30
that will enable us to indeed attack the problem of control and communication
223
630842
5124
Sibernetik, insanlar, bilgisayarlar
ve daha geniş ekolojik dünya arasındaki ilişkiyi
düşünmek zorunda olduğunu
10:35
in advanced computing technologies."
224
635990
2400
ikna edici bir şekilde savundu.
10:38
Cybernetics argued persuasively
225
638847
1825
Onları bütünsel bir sistem olarak düşünmek zorundaydınız.
10:40
that one had to think about the relationship
226
640696
2064
Macy Konferanslarına katılanlar, zihnin nasıl çalıştığı,
10:42
between humans, computers
227
642784
1962
10:44
and the broader ecological world.
228
644770
1778
zekâ ve öğrenme hakkındaki fikirlerle
10:46
You had to think about them as a holistic system.
229
646572
2332
ve teknolojinin geleceğimizdeki rolü ile ilgileniyorlardı.
10:49
Participants in the Macy Conferences were concerned with how the mind worked,
230
649293
3715
Ne yazık ki, Macy Konferansı ile başlayan sohbetler,
konuşma AI ile ilgili olduğunda genellikle unutulur.
10:53
with ideas about intelligence and learning,
231
653032
2029
10:55
and about the role of technology in our future.
232
655085
2317
Ama benim için, kültürü, teknolojiyi ve çevreyi barındırması gereken
10:57
Sadly, the conversations that started with the Macy Conference
233
657847
3040
bir sistem fikri hakkında burada geri kazanılması gereken
11:00
are often forgotten when the talk is about AI.
234
660911
2483
gerçekten önemli bir şey var.
11:03
But for me, there's something really important to reclaim here
235
663815
3349
Enstitüde, bu tür sistem düşüncesi işimizin temelini oluşturuyor.
11:07
about the idea of a system that has to accommodate culture,
236
667188
3326
Son üç yıldır,
11:10
technology and the environment.
237
670538
2261
bu işi yapmak için yaptığım bu çılgın yolculukta
harika insanlardan oluşan bir topluluk bana burada katıldı.
11:13
At the Institute, that sort of systems thinking is core to our work.
238
673649
3523
Ekibimizde antropologlar,
11:17
Over the last three years,
239
677950
1302
sistem ve çevre mühendisleri ve bilgisayar bilimcileri ile
11:19
a whole collection of amazing people have joined me here
240
679276
2642
11:21
on this crazy journey to do this work.
241
681942
2373
bir nükleer fizikçi,
11:24
Our staff includes anthropologists,
242
684871
2357
ödüllü bir foto muhabiri
ve en az bir politika ve standartlar uzmanı yer alıyor.
11:27
systems and environmental engineers, and computer scientists
243
687252
3365
Bu çarpıcı bir karışım.
11:30
as well as a nuclear physicist,
244
690641
2166
Çatışmalar ve zorluklar kadar deneyim
11:32
an award-winning photo journalist,
245
692831
1643
ve uzmanlık yelpazesi de güçlü.
11:34
and at least one policy and standards expert.
246
694498
2507
Çeşitlilik sağlamak, insanları sohbet içinde tutmanın
11:37
It's a heady mix.
247
697506
1484
11:39
And the range of experience and expertise is powerful,
248
699014
3387
yollarını bulmak için sürekli isteklilik gerektirir.
Çatışma ile biraz uğraşmak da.
11:42
as are the conflicts and the challenges.
249
702425
2303
11:45
Being diverse requires a constant willingness
250
705085
2262
Ayrıca, işleri yapmanın
11:47
to find ways to hold people in conversation.
251
707371
2627
yeni bir şeklini inşa etme yönteminin, başkalarını da aynı yolculuğa
11:50
And to dwell just a little bit with the conflict.
252
710323
2865
bizimle birlikte getirme taahhüdü gerektireceğini erken anladık.
11:53
We also worked out early
253
713911
1880
Bu yüzden kapılarımızı hızlı bir şekilde bir eğitim programına açtık
11:55
that the way to build a new way of doing things
254
715815
2198
ve ilk yüksek lisans programımızı 2018 yılında başlattık.
11:58
would require a commitment to bringing others along on that same journey with us.
255
718037
4143
O zamandan beri, iki yüksek lisans öğrencisi
12:02
So we opened our doors to an education program very quickly,
256
722204
3135
ve bir doktora öğrencisi grubumuz oldu.
12:05
and we launched our first master's program in 2018.
257
725363
2944
Öğrencilerimiz dünyanın her yerinden ve
hayatın her kesiminden geliyor.
12:08
Since then, we've had two cohorts of master's students
258
728704
2593
Avustralya, Yeni Zelanda, Nijerya, Nepal,
12:11
and one cohort of PhD students.
259
731321
1944
Meksika, Hindistan, ABD.
12:13
Our students come from all over the world
260
733683
1960
Yaşları 23 ile 60 arasında değişiyor.
12:15
and all over life.
261
735667
1222
12:16
Australia, New Zealand, Nigeria, Nepal,
262
736913
2595
Matematik ve müzik, politika ve performans,
12:19
Mexico, India, the United States.
263
739532
1959
sistemler ve standartlar,
mimari ve sanat alanlarında
12:22
And they range in age from 23 to 60.
264
742286
2400
çeşitli geçmişlere sahiplerdi.
12:24
They variously had backgrounds in maths and music,
265
744997
2984
Enstitü'de aramıza katılmadan önce şirketler yönettiler,
hükümette çalıştılar, orduda görev yaptılar,
12:28
policy and performance,
266
748005
1745
12:29
systems and standards,
267
749774
1334
lisede öğretmenlik yaptılar
12:31
architecture and arts.
268
751132
1459
ve sanat organizasyonlarını yönettiler.
12:33
Before they joined us at the Institute,
269
753385
1881
Maceraperestlerdi
12:35
they ran companies, they worked for government,
270
755290
2238
ve birbirlerine bağlı olmaya
ve yeni bir şeyler inşa etmeye adadılar.
12:37
served in the army, taught high school,
271
757552
2197
12:39
and managed arts organizations.
272
759773
2067
Daha ne isteyebilirsiniz ki?
12:42
They were adventurers
273
762329
1564
Çünkü Silikon Vadisi'nde 20 yılımı geçirmeme
12:43
and committed to each other,
274
763917
1414
ve yalnız mucit ve kahramanın yolculuğu hakkındaki
12:45
and to building something new.
275
765355
1475
12:47
And really, what more could you ask for?
276
767630
2513
hikâyeleri bilmeme rağmen
gerçeği de biliyorum.
12:50
Because although I've spent 20 years in Silicon Valley
277
770922
2532
Asla bir kahramanın yolculuğu olmadığı.
Her zaman dünyayı değiştirebilecek ortak bir amaç duygusuna sahip
12:53
and I know the stories about the lone inventor
278
773478
2175
12:55
and the hero's journey,
279
775677
1436
insanlardan oluşan bir koleksiyon.
12:57
I also know the reality.
280
777137
1603
12:58
That it's never just a hero's journey.
281
778764
2186
Peki nereden başlıyorsunuz?
13:00
It's always a collection of people who have a shared sense of purpose
282
780974
3643
Sanırım durduğunuz yerden başlıyorsunuz.
Benim için bu, üzerinde durduğum toprağın
13:04
who can change the world.
283
784641
1680
asıl sahiplerini tanımak istediğim anlamına geliyor.
13:06
So where do you start?
284
786807
1680
Ngunnawal ve Ngambri halkı,
13:09
Well, I think you start where you stand.
285
789299
2412
burası onların toprağı,
asla devredilmemiş, her zaman kutsal.
13:12
And for me, that means I want to acknowledge
286
792077
2063
Bu yerin eski ve şimdiki yaşlılarına saygılarımı sunuyorum.
13:14
the traditional owners of the land upon which I'm standing.
287
794164
2777
13:16
The Ngunnawal and Ngambri people,
288
796965
1587
Ayrıca bugün birçok yerde toplandığımızı
13:18
this is their land,
289
798576
1167
kabul ediyorum
13:19
never ceded, always sacred.
290
799767
1365
ve tüm bu yerlerin asıl sahiplerine
13:21
And I pay my respects to the elders, past and present, of this place.
291
801156
3373
ve büyüklerine de saygılarımı sunuyorum.
13:25
I also acknowledge that we're gathering today
292
805315
2111
Bu kelimeleri söyleyebilmek, anlamlarına
13:27
in many other places,
293
807450
1445
ve işaret ettiklerine odaklanmak benim için çok şey ifade ediyor.
13:28
and I pay my respects to the traditional owners and elders
294
808919
2718
En az 60.000 yıldır sürekli olarak
13:31
of all those places too.
295
811661
1510
işgal edilmiş bir ülkede yaşadığımızı hatırlamak.
13:33
It means a lot to me to get to say those words
296
813617
2207
13:35
and to dwell on what they mean and signal.
297
815848
2531
Aborijin halkı burada dünyalar inşa etti,
13:38
And to remember that we live in a country
298
818855
1961
sosyal sistemler kurdular, teknolojiler inşa ettiler.
13:40
that has been continuously occupied for at least 60,000 years.
299
820840
3261
Bu yeri yönetmek ve uzun bir süre boyunca
dikkate değer şekilde yönetmek için yollar inşa ettiler.
13:44
Aboriginal people built worlds here,
300
824979
1905
13:46
they built social systems, they built technologies.
301
826908
2499
Herhangi birimiz Avustralyalı olarak sahneye çıktığımız her an,
13:49
They built ways to manage this place
302
829837
1729
burada veya yurt dışında,
13:51
and to manage it remarkably over a protracted period of time.
303
831590
3254
bu tarihten dolayı yanımızda bir ayrıcalık
ve sorumluluk taşıyoruz.
13:55
And every moment any one of us stands on a stage as Australians,
304
835935
3000
Bu sadece bir tarih değil.
Aynı zamanda inanılmaz derecede zengin bir kaynak,
13:58
here or abroad,
305
838959
1284
14:00
we carry with us a privilege and a responsibility
306
840267
2287
dünya görüşleri ve bilgi kümesi.
Tüm damarlarımızda dolaşmalı
14:02
because of that history.
307
842578
1361
14:04
And it's not just a history.
308
844241
1706
ve her zaman anlattığımız hikâye bu olmalı.
14:05
It's also an incredibly rich set of resources,
309
845971
2517
Sonuçta mesele, farklı düşünmek,
14:08
worldviews and knowledge.
310
848512
1944
farklı türde sorular sormak,
14:10
And it should run through all of our bones
311
850480
2444
14:12
and it should be the story we always tell.
312
852948
2415
dünyaya ve sistemlere bütünsel olarak bakmak
ve sizinle o yolculukta olmak isteyen diğer insanları bulmak.
14:15
Ultimately, it's about thinking differently,
313
855778
2182
14:17
asking different kinds of questions,
314
857984
2556
Çünkü benim için
gelecek ve ölçek hakkında düşünmenin tek yolu
14:20
looking holistically at the world and the systems,
315
860564
2737
bunu her zaman kolektif olarak yapmak.
14:23
and finding other people who want to be on that journey with you.
316
863325
3249
Benim için,
14:26
Because for me,
317
866598
1201
insan kavramı, sorumluluk sahibi, güvenli
14:27
the only way to actually think about the future and scale
318
867823
3306
ve nihayetinde sürdürülebilir olan
14:31
is to always be doing it collectively.
319
871153
2437
şeyler hakkında düşünmenin
14:33
And because for me,
320
873614
1349
yollarından biri.
14:34
the notion of humans in it together
321
874987
2537
Teşekkürler.
14:37
is one of the ways we get to think about things
322
877548
2214
14:39
that are responsible, safe
323
879786
2357
14:42
and ultimately, sustainable.
324
882167
1872
14:45
Thank you.
325
885143
1150
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7