6 big ethical questions about the future of AI | Genevieve Bell

93,420 views ・ 2021-01-14

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: erin choi 검토: Jihyeon J. Kim
인공 지능에 관련된 이야기를 해드리겠습니다.
시드니에 ‘원 블라이 스트리트’라는 건물이 하나 있는데요.
여러 정부 부처들도 많이 입주해 있고
00:13
Let me tell you a story about artificial intelligence.
0
13286
2999
바쁜 사람들로 붐비는 곳이죠.
겉모습은 공상과학 소설에나 나올 법 하게 생겼어요.
00:16
There's a building in Sydney at 1 Bligh Street.
1
16309
3207
빛나는 유리와 건물의 곡선들
00:19
It houses lots of government apartments
2
19540
2230
00:21
and busy people.
3
21794
1449
그리고 오렌지색 조형물들을 볼 수 있죠.
00:23
From the outside, it looks like something out of American science fiction:
4
23267
3524
안에는 훌륭한 커피숍이 1층에 있고
00:26
all gleaming glass and curved lines,
5
26815
2714
제가 좋아하는 엘리베이터가 있어요.
정말 아름답죠.
00:29
and a piece of orange sculpture.
6
29553
2167
마치 살아 있는 것 같기도 하고요.
00:31
On the inside, it has excellent coffee on the ground floor
7
31744
2928
저는 엘리베이터를 정말 좋아합니다.
여러 이유가 있죠.
00:34
and my favorite lifts in Sydney.
8
34696
1651
엘리베이터는 여러분의 미래를 볼 수 있는 장소 중 하나예요.
00:36
They're beautiful;
9
36371
1301
00:37
they look almost alive.
10
37696
2120
21세기 엘리베이터들은 아주 흥미롭습니다.
00:40
And it turns out I'm fascinated with lifts.
11
40220
2088
인공지능이 여러분 삶에 영향을 미치는 주요 장소 중 한 곳이기 때문이죠.
00:42
For lots of reasons.
12
42332
1364
00:43
But because lifts are one of the places you can see the future.
13
43720
3143
그것도 여러분도 모르는 사이에요.
00:46
In the 21st century, lifts are interesting
14
46887
2492
전 세계 많은 빌딩들 안에서
00:49
because they're one of the first places that AI will touch you
15
49403
2912
엘리베이터는 계속해서 다양한 알고리즘을 실행하고 있어요.
인공지능의 원조인 셈이죠.
00:52
without you even knowing it happened.
16
52339
2039
00:54
In many buildings all around the world,
17
54919
2565
그 말은, 여러분이 엘리베이터 버튼을 누르기도 전에
00:57
the lifts are running a set of algorithms.
18
57508
2491
이미 여러분이 올 걸 알고 기다린다는 뜻이에요.
01:00
A form of protoartificial intelligence.
19
60023
2667
모든 엘리베이터 칸들의 위치를 조정하죠.
01:03
That means before you even walk up to the lift to press the button,
20
63071
4284
에너지를 아끼려 늘 아래 쪽으로 보내고
사람들이 어디로 향하는지 미리 알고 있죠.
01:07
it's anticipated you being there.
21
67379
1775
버튼을 누르는 그 순간에
01:09
It's already rearranging all the carriages.
22
69490
2936
여러분은 그 시스템의 일부가 됩니다.
사람, 환경, 건물 그리고 세상을 이해하는 시스템 말이죠.
01:12
Always going down, to save energy,
23
72450
1627
01:14
and to know where the traffic is going to be.
24
74101
2143
01:16
By the time you've actually pressed the button,
25
76268
2262
우리는 인공지능을 종종 로봇하고만 연관시킵니다.
01:18
you're already part of an entire system
26
78554
1872
01:20
that's making sense of people and the environment
27
80450
2310
공상과학만 떠올리기 십상이죠.
01:22
and the building and the built world.
28
82784
1991
100년 동안 그랬듯이 말이에요.
01:25
I know when we talk about AI, we often talk about a world of robots.
29
85481
3810
인공지능이라 하면 여러분은 터미네이터를 떠올리실 텐데요.
01:29
It's easy for our imaginations to be occupied with science fiction,
30
89720
3468
인공지능과 바깥 세상 사이의 연관점을 찾는 것은
01:33
well, over the last 100 years.
31
93212
1833
훨씬 어려운 일이에요.
01:35
I say AI and you think "The Terminator."
32
95069
2534
하지만 현실은, 인공지능은 우리 주변에 이미 존재한다는 거예요.
01:38
Somewhere, for us, making the connection between AI and the built world,
33
98728
4532
그것도 아주 많은 곳에요.
건물과 여러 시스템에 존재하죠.
01:43
that's a harder story to tell.
34
103284
1690
200년이 넘는 산업화 기간 동안
01:45
But the reality is AI is already everywhere around us.
35
105395
3727
사람들은 여러 시스템에 인공지능이 쉽게 적용될 거라 생각했어요.
01:49
And in many places.
36
109434
1215
01:50
It's in buildings and in systems.
37
110673
2587
결국 역사적으로 비추어볼 때
01:53
More than 200 years of industrialization
38
113284
2063
우리가 기술만 개발한다면
01:55
suggest that AI will find its way to systems-level scale relatively easily.
39
115371
4303
규모와 변화는 자연스레 뒤따른다고 할 수 있죠.
기계화, 자동화 그리고 디지털화는
02:00
After all, one telling of that history
40
120173
2054
02:02
suggests that all you have to do is find a technology,
41
122251
2540
모두가 기술의 역할과 중요성에 초점을 두고 있습니다.
02:04
achieve scale and revolution will follow.
42
124815
2426
02:07
The story of mechanization, automation and digitization
43
127919
4277
그런 식의 기술적 변화는
규모가 대개 평범하죠.
02:12
all point to the role of technology and its importance.
44
132220
3182
예상을 벗어나지도 않고
안정된 수준이죠.
예측 가능할 정도로요.
02:16
Those stories of technological transformation
45
136274
2461
02:18
make scale seem, well, normal.
46
138759
2714
하지만 이는 초점을 기술과 기술의 변화에만 두죠.
02:21
Or expected.
47
141497
1150
02:23
And stable.
48
143052
1341
기술을 스케일화 시키고 시스템을 구축하는 것은
02:24
And sometimes even predictable.
49
144417
2066
더 많은 것을 필요로 해요.
02:27
But it also puts the focus squarely on technology and technology change.
50
147012
4023
호주 국립대에서 한 인공지능 기관에서
02:31
But I believe that scaling a technology and building a system
51
151964
3483
2017년 9월에
02:35
requires something more.
52
155471
1680
이상하리만치 쉬운 미션을 실행했어요.
02:38
We founded the 3Ai Institute at the Australian National University
53
158260
3762
공학기술의 새로운 문을 만들고
인공지능을 스케일로 안전하게 가져오는 작업이었어요.
02:42
in September 2017.
54
162046
1729
02:44
It has one deceptively simple mission:
55
164101
2794
하지만 21세기에 어떻게 가능케 할 수 있을까요?
02:46
to establish a new branch of engineering
56
166919
1911
저희는 실험을 동반한 교육 과정을 통해
02:48
to take AI safely, sustainably and responsibly to scale.
57
168854
4198
이에 대해 가르치고 있어요.
02:53
But how do you build a new branch of engineering in the 21st century?
58
173076
3253
세익스피어의 출생지나
대보초 같이 다양한 곳에서
02:56
Well, we're teaching it into existence
59
176353
2389
02:58
through an experimental education program.
60
178766
2658
연구를 하기도 하고요.
호주의 커다란 광산에서도 하고 있고요.
03:01
We're researching it into existence
61
181876
2019
03:03
with locations as diverse as Shakespeare's birthplace,
62
183919
2769
그리고 이론을 세워요.
사이버 시스템의 복합성에 초점을 두고요.
03:06
the Great Barrier Reef,
63
186712
1802
03:08
not to mention one of Australia's largest autonomous mines.
64
188538
2888
저희는 새롭고 유익한 것들을 만들기 위해 노력하고 있습니다.
03:11
And we're theorizing it into existence,
65
191892
2509
다음 세대의 창의적인 인재를 만들 만한 것들이요.
03:14
paying attention to the complexities of cybernetic systems.
66
194425
3023
그리고 저희는
03:18
We're working to build something new and something useful.
67
198250
2954
인공지능의 과거 이야기들을 깊게 이해하면서 그 작업을 해요.
03:21
Something to create the next generation of critical thinkers and critical doers.
68
201228
3776
그리고 협력과 협동을 통해,
03:25
And we're doing all of that
69
205736
1461
가르침과 연구와 참여를 통해
03:27
through a richer understanding of AI's many pasts and many stories.
70
207221
3973
그리고 질문을 구상하며
03:31
And by working collaboratively and collectively
71
211964
3024
다양한 문제를 풀어가요.
03:35
through teaching and research and engagement,
72
215012
3540
저희는 하나의 인공지능을 만드는 것이 아니고
가능성을 만들어요.
03:38
and by focusing as much on the framing of the questions
73
218576
2684
상상력을 모두 동원해
03:41
as the solving of the problems.
74
221284
1761
다양한 가능성과 대화가 가능한
03:43
We're not making a single AI,
75
223505
1929
03:45
we're making the possibilities for many.
76
225458
2278
커리큘럼을 구상중이에요.
03:48
And we're actively working to decolonize our imaginations
77
228280
3079
만들고 또 새로 만들죠.
03:51
and to build a curriculum and a pedagogy
78
231383
2373
그리고 계속 진행 중이에요.
03:53
that leaves room for a range of different conversations and possibilities.
79
233780
3745
저희가 어떻게
이 문제에 접근하는지 아주 간단하게 말씀드릴게요.
03:58
We are making and remaking.
80
238514
2277
04:00
And I know we're always a work in progress.
81
240815
2838
꼭 역사를 확인 한 후 시작해요.
04:04
But here's a little glimpse
82
244593
1302
04:05
into how we're approaching that problem of scaling a future.
83
245919
3282
2018년 12월,
뉴사우스웨일스 주 국경에 위치한
브리와리나라는 마을에 갔어요.
04:09
We start by making sure we're grounded in our own history.
84
249982
2834
원주민을 위한 만남의 장소였죠.
04:13
In December of 2018,
85
253537
1365
다양한 그룹이 모여
04:14
I took myself up to the town of Brewarrina
86
254926
2056
함께 축제를 하며 즐겨요.
04:17
on the New South Wales-Queensland border.
87
257006
2587
그곳의 바르온 강에는
04:19
This place was a meeting place for Aboriginal people,
88
259617
2515
호주의 가장 크고 오래된 물고기 잡이 그물인
04:22
for different groups,
89
262156
1159
04:23
to gather, have ceremonies, meet, to be together.
90
263339
3256
어살이 있어요.
1.8km의 돌벽으로 이루어져 있고
04:26
There, on the Barwon River, there's a set of fish weirs
91
266969
2600
04:29
that are one of the oldest and largest systems
92
269593
2158
그물같이 엉켜있고
아래쪽으로 향해있어
04:31
of Aboriginal fish traps in Australia.
93
271775
2098
다양한 수심에 사는 물고기들을 잡는 데 쓰여요.
04:34
This system is comprised of 1.8 kilometers of stone walls
94
274214
3283
물고기 잡는 데 쓰는 펜도 창고에 위치해 있고
04:37
shaped like a series of fishnets
95
277521
1691
04:39
with the "Us" pointing down the river,
96
279236
2341
물살을 바꿀 도구와
04:41
allowing fish to be trapped at different heights of the water.
97
281601
2937
크고 작은 물고기들을 저장할 장소와
깨끗한 물이 마련돼 있죠.
04:44
They're also fish holding pens with different-height walls for storage,
98
284562
3349
04:47
designed to change the way the water moves
99
287935
2150
이 시스템은 그 곳에 사람들이 모일 때
04:50
and to be able to store big fish and little fish
100
290109
2253
다 함께 먹을 식량을 확보하기 위한
04:52
and to keep those fish in cool, clear running water.
101
292386
2673
수단이에요.
돌과 덫과는 상관이 없는 이유죠.
04:56
This fish-trap system was a way to ensure that you could feed people
102
296060
3263
04:59
as they gathered there in a place that was both a meeting of rivers
103
299347
3237
오히려 덫이 만든 시스템이죠.
05:02
and a meeting of cultures.
104
302608
1309
기술적 지식과
05:04
It isn't about the rocks or even the traps per se.
105
304441
3562
문화적 지식과
생학적 지식을 필요로 하는 시스템이요.
05:08
It is about the system that those traps created.
106
308027
3063
이 시스템은 오래됐어요,
4만년 넘게 지속된다 믿는 고고학자들도 있어요.
05:11
One that involves technical knowledge,
107
311114
2023
05:13
cultural knowledge
108
313161
1485
마지막 기록이 찍혔을 때는 1910년 대예요.
05:14
and ecological knowledge.
109
314670
1680
05:16
This system is old.
110
316792
1730
놀랄만한 장수와 크기를 가지고 있죠.
05:18
Some archaeologists think it's as old as 40,000 years.
111
318546
2880
05:21
The last time we have its recorded uses is in the nineteen teens.
112
321760
3870
저에겐 큰 영감이 됐어요.
이 어살의 사진은 제 회사의 벽에 위치해 있어요.
05:26
It's had remarkable longevity and incredible scale.
113
326164
3245
그 약속과 새로운 것을 만들겠다는 도전을
05:29
And it's an inspiration to me.
114
329871
2000
항상 상기시키고 싶어서요.
그리고 또 저희가
05:32
And a photo of the weir is on our walls here at the Institute,
115
332263
3149
사람들이 계속해서 유지한 그 시스템을
05:35
to remind us of the promise and the challenge
116
335436
2110
만들기 위해 노력하고 있다는 사실을요.
05:37
of building something meaningful.
117
337570
1873
이는 저희의 역사 뿐만 아니라
05:39
And to remind us that we're building systems
118
339467
2055
공학의 새로운 학문의 선조가 될 거예요.
05:41
in a place where people have built systems
119
341546
2015
05:43
and sustained those same systems for generations.
120
343585
2476
그 유산에 더해
05:46
It isn't just our history,
121
346514
1666
미래를 위해 명확한 질문을 해야되겠다는 생각을 했어요.
05:48
it's our legacy as we seek to establish a new branch of engineering.
122
348204
3611
쉬운 답이 없는 질문을요.
05:52
To build on that legacy and our sense of purpose,
123
352284
2872
요점은 질문을 하는 거예요.
05:55
I think we need a clear framework for asking questions about the future.
124
355180
3929
우리는 가끔 전통적인 방식을 넘어
05:59
Questions for which there aren't ready or easy answers.
125
359744
3065
더 복잡한
그런 질문을 해야 한다고
06:03
Here, the point is the asking of the questions.
126
363262
2944
생각해요.
06:06
We believe you need to go beyond the traditional approach
127
366659
2690
왜냐하면 그럼으로써 새 가능성을 넓히고
06:09
of problem-solving,
128
369373
1405
06:10
to the more complicated one of question asking
129
370802
3085
새 도전을 찾게 되니까요.
지금 저에게
06:13
and question framing.
130
373911
1680
여섯 개의 기본 질문들이 있어요.
06:15
Because in so doing, you open up all kinds of new possibilities
131
375950
2969
인공지능을 안전하게 그리고 오래 스케일로 옮길 방법이요.
06:18
and new challenges.
132
378943
1475
06:20
For me, right now,
133
380442
1978
자주성,
대행사, 보험,
06:22
there are six big questions that frame our approach
134
382444
2794
목적성, 지표, 그리고 접속기에 관련된 질문이요.
06:25
for taking AI safely, sustainably and responsibly to scale.
135
385262
3056
첫 번째 질문은 간단해요.
06:28
Questions about autonomy,
136
388730
1486
06:30
agency, assurance,
137
390240
1837
이 시스템은 자동인가요?
06:32
indicators, interfaces and intentionality.
138
392101
2777
블라이가에 승강기를 떠올려 보세요.
현실은, 승강기는 자동이 될 거예요.
06:36
The first question we ask is a simple one.
139
396284
2406
아무 행동을 취하지 않아도 저절로 원하는 층으로 옮겨 가겠죠.
06:39
Is the system autonomous?
140
399038
1680
06:41
Think back to that lift on Bligh Street.
141
401284
2118
하지만 완전 자동은 아니잖아요?
06:43
The reality is, one day, that lift may be autonomous.
142
403879
2627
그 승강기를 떠나 블라이가에
06:46
Which is to say it will be able to act without being told to act.
143
406530
3134
맥주를 마시러 갈 수는 없잖아요.
그저 오르내리기만 하니까요.
06:50
But it isn't fully autonomous, right?
144
410219
1937
하지만 혼자 자동으로 하죠.
06:52
It can't leave that Bligh Street building
145
412180
2580
06:54
and wonder down to Circular Quay for a beer.
146
414784
2800
그런 면에서는 자동인 셈이에요.
두 번째 질문은
06:58
It goes up and down, that's all.
147
418093
2230
이 시스템은 대행사가 있나요?
07:00
But it does it by itself.
148
420347
2341
07:02
It's autonomous in that sense.
149
422712
2000
이 시스템이 제한이 있어
07:05
The second question we ask:
150
425744
2381
특정 상황에 특정 행동을 피하게 할 만한 그런 장치요.
07:08
does this system have agency?
151
428149
1866
07:10
Does this system have controls and limits that live somewhere
152
430910
3778
승강기는 있죠.
아무 승강기나 말이죠.
07:14
that prevent it from doing certain kinds of things under certain conditions.
153
434712
3793
빨간 버튼을 누르면
저 수화기 너머 사람이
07:19
The reality with lifts, that's absolutely the case.
154
439061
3270
모든 걸 무력화 시킬 수 있죠.
07:22
Think of any lift you've been in.
155
442355
1904
하지만 만약 이 모든 게 인공지능으로만 이루어진다면요?
07:24
There's a red keyslot in the elevator carriage
156
444283
2620
누가 이 열쇠를 쥐고,
07:26
that an emergency services person can stick a key into
157
446927
2587
그 열쇠는 실제 열쇠인지, 디지털 상인지
07:29
and override the whole system.
158
449538
1719
그리고 누가 갖는지 등은요?
그걸 갖는 건 사람인가요?
07:31
But what happens when that system is AI-driven?
159
451641
2500
그렇다면 어떻게 그 사람이 알 수 가 있는 거죠?
07:34
Where does the key live?
160
454165
1206
어떻게 그 모든 것들이 승강기 안에 있는 당신에게 가능하죠?
07:35
Is it a physical key, is it a digital key?
161
455395
2230
07:37
Who gets to use it?
162
457649
1349
07:39
Is that the emergency services people?
163
459022
1928
세 번째 질문은 보험 관련입니다.
07:40
And how would you know if that was happening?
164
460974
2189
07:43
How would all of that be manifested to you in the lift?
165
463187
3287
저희가 안전, 보안, 신뢰, 위험, 약점, 가동성,
윤리, 법, 그리고, 규정
07:47
The third question we ask is how do we think about assurance.
166
467752
3817
이 모든 것들에 대해 어떻게 생각하는지 말이에요.
07:51
How do we think about all of its pieces:
167
471593
1912
07:53
safety, security, trust, risk, liability, manageability,
168
473529
3557
어떻게 해야 이 시스템이 안전하고 잘 작동되는지 알 수 있나요?
07:57
explicability, ethics, public policy, law, regulation?
169
477110
3657
네 번째 질문은
무엇이 우리의 인터페이스가 되나요?
08:01
And how would we tell you that the system was safe and functioning?
170
481545
3778
그것을 우리가 갖나요?
우리가 말을 하나요? 아님 그들끼리 말을 하나요?
08:06
The fourth question we ask
171
486514
1699
그리고 저희가 알던 기술이
08:08
is what would be our interfaces with these AI-driven systems.
172
488237
2874
갑자기
매우 다른 방향으로 행동한다면요?
08:11
Will we talk to them?
173
491135
1174
08:12
Will they talk to us, will they talk to each other?
174
492333
2421
승강기, 차, 전력망, 신호등, 집에 있는 것들 말이에요.
08:14
And what will it mean to have a series of technologies we've known,
175
494778
3174
08:17
for some of us, all our lives,
176
497976
1475
다섯 번째 질문은
08:19
now suddenly behave in entirely different ways?
177
499475
2237
08:21
Lifts, cars, the electrical grid, traffic lights, things in your home.
178
501736
3938
무엇이 잘 작동하는 지를 보여주는 지표가 되어 주나요?
200년 가량의 산업화는
08:27
The fifth question for these AI-driven systems:
179
507038
3301
좋은 시스템이라고 정의 내릴 수 있는 건
08:30
What will the indicators be to show that they're working well?
180
510363
3055
생산성과 효율성을 가진다 말합니다.
08:33
Two hundred years of the industrial revolution
181
513442
2159
21세기에는
조금만 더 넓게 생각해 보면 돼요.
08:35
tells us that the two most important ways to think about a good system
182
515625
3286
이 시스템이 오래 가는지,
안전한지, 책임질만 한지 말이죠.
08:38
are productivity and efficiency.
183
518935
2133
그럼 누가 그런 것들을 판단하죠?
08:41
In the 21st century,
184
521712
1175
08:42
you might want to expand that just a little bit.
185
522911
2262
사용자들은 이 시스템들이 어떻게
08:45
Is the system sustainable,
186
525197
1245
규제되고 만들어지는지 알고 싶어 하니까요.
08:46
is it safe, is it responsible?
187
526466
2000
08:48
Who gets to judge those things for us?
188
528920
2428
마지막, 아마도 가장 중요한 질문은
08:51
Users of the systems would want to understand
189
531372
2120
이것입니다.
08:53
how these things are regulated, managed and built.
190
533516
2581
의도는 무엇인가요?
08:57
And then there's the final, perhaps most critical question
191
537737
2769
이 시스템은 무엇을 하기 위해 설계되었으며
이것이 좋은 아이디어라 누가 말하던가요?
09:00
that you need to ask of these new AI systems.
192
540530
2817
다른 말로 하면
이 시스템이 구축하는 세상은 어떤 세상이며
09:03
What's its intent?
193
543989
1440
09:05
What's the system designed to do
194
545822
1533
어떻게 구상이 됐으며
지금 우리가 살고 있는 세상과의 관계는 어떻게 되나요?
09:07
and who said that was a good idea?
195
547379
1792
09:09
Or put another way,
196
549195
1667
09:10
what is the world that this system is building,
197
550886
2675
그리고 이 대화는 누가 하게 되나요?
누가 대답하게 되나요?
09:13
how is that world imagined,
198
553585
1643
어떻게 구성되나요?
09:15
and what is its relationship to the world we live in today?
199
555252
2864
어느 질문도 간단한 답이 없습니다.
09:18
Who gets to be part of that conversation?
200
558546
2166
09:20
Who gets to articulate it?
201
560736
1730
대신에, 그들은 가능성에 대해
09:22
How does it get framed and imagined?
202
562490
2400
상상하고
디자인하고, 만들고, 규제하고 해체도 합니다.
09:26
There are no simple answers to these questions.
203
566149
2916
올바른 방향으로 저희를 이끌고
09:29
Instead, they frame what's possible
204
569089
2071
공학의 새로운 학문으로 통하는 길을 만들어 줍니다.
09:31
and what we need to imagine,
205
571184
2055
09:33
design, build, regulate and even decommission.
206
573263
3317
하지만 이 질문들만으로는 충분하지 않죠.
09:37
They point us in the right directions
207
577278
1855
이 질문들을 모두 엮을 수 있어야 합니다.
09:39
and help us on a path to establish a new branch of engineering.
208
579157
3317
09:42
But critical questions aren't enough.
209
582895
3016
저희 회사에서는
인공지능을 어떻게 하나의 시스템으로 볼지에 관심이 있습니다.
09:46
You also need a way of holding all those questions together.
210
586880
3293
그리고 어떻게 그 경계를 만들지에 대해서도요.
09:50
For us at the Institute,
211
590809
1166
09:51
we're also really interested in how to think about AI as a system,
212
591999
4578
그것이 매우 중요하단 생각이 듭니다.
저희는 1940년도에 시작된 일에 영향을 받았습니다.
09:56
and where and how to draw the boundaries of that system.
213
596601
2992
09:59
And those feel like especially important things right now.
214
599617
2857
1944년에 인류학자인 그레고리 바테송과 마가렛 메드와 함께
10:03
Here, we're influenced by the work that was started way back in the 1940s.
215
603061
3968
수학자 노베르트 위에너는 수차례 모임을 가졌습니다.
매우 잘 알려진 메이씨 회의가 이 모임인데요.
10:07
In 1944, along with anthropologists Gregory Bateson and Margaret Mead,
216
607529
4142
결국, 1946년과 1953년 사이에
10:11
mathematician Norbert Wiener convened a series of conversations
217
611695
3485
인공두뇌학 아래서 열 번의 회의가 있었습니다.
10:15
that would become known as the Macy Conferences on Cybernetics.
218
615204
3365
노베르트 위에너에 따르면
10:18
Ultimately, between 1946 and 1953,
219
618593
3373
인공두뇌학은 언어와 기술을 향상시키고
10:21
ten conferences were held under the banner of cybernetics.
220
621990
2809
다가올 컴퓨터 기술의 문제인 조종과 대화를
10:25
As defined by Norbert Wiener,
221
625553
1438
10:27
cybernetics sought to "develop a language and techniques
222
627015
3803
해결하는 학문입니다.
10:30
that will enable us to indeed attack the problem of control and communication
223
630842
5124
인공두뇌학에 따르면
우리는 사람과 컴퓨터와
더 나아가 생태계의
10:35
in advanced computing technologies."
224
635990
2400
관계에 대해 생각해야 합니다.
10:38
Cybernetics argued persuasively
225
638847
1825
하나의 시스템으로 봐야 하죠.
10:40
that one had to think about the relationship
226
640696
2064
메이시 회의 참여자들은 어떻게 우리의 마음이
10:42
between humans, computers
227
642784
1962
10:44
and the broader ecological world.
228
644770
1778
지식과 배움에 관련된 생각과
10:46
You had to think about them as a holistic system.
229
646572
2332
미래의 기술의 역할에 대해 생각하는 것을 걱정했습니다.
10:49
Participants in the Macy Conferences were concerned with how the mind worked,
230
649293
3715
슬프게도, 메이시 회의에서 시작된 대화는
가끔 잊혀지곤 합니다.
10:53
with ideas about intelligence and learning,
231
653032
2029
10:55
and about the role of technology in our future.
232
655085
2317
하지만 저에게는 문화, 기술, 그리고 환경을
10:57
Sadly, the conversations that started with the Macy Conference
233
657847
3040
수용할 시스템을 만드는 생각들이
11:00
are often forgotten when the talk is about AI.
234
660911
2483
매우 소중하게 작용합니다.
11:03
But for me, there's something really important to reclaim here
235
663815
3349
제 회사에서는 그런 시스템이 저희 일의 중심이죠.
11:07
about the idea of a system that has to accommodate culture,
236
667188
3326
3년 동안
11:10
technology and the environment.
237
670538
2261
매우 훌륭하신 분들이 저와 함께
11:13
At the Institute, that sort of systems thinking is core to our work.
238
673649
3523
이 일에 몰두하여 주셨습니다.
그 중에는 인류학자들,
11:17
Over the last three years,
239
677950
1302
환경 엔지니어들, 컴퓨터 과학자들,
11:19
a whole collection of amazing people have joined me here
240
679276
2642
11:21
on this crazy journey to do this work.
241
681942
2373
그리고 핵 물리학자들,
11:24
Our staff includes anthropologists,
242
684871
2357
입상한 사진 작가,
그리고 적어도 한명의 정책 전문가가 있어요.
11:27
systems and environmental engineers, and computer scientists
243
687252
3365
훌륭한 조합이죠.
11:30
as well as a nuclear physicist,
244
690641
2166
경험과 전문성의 강력한 힘은
11:32
an award-winning photo journalist,
245
692831
1643
도전과 갈등만큼이나 힘이 셉니다.
11:34
and at least one policy and standards expert.
246
694498
2507
다양하다는 것은
11:37
It's a heady mix.
247
697506
1484
대화할 방법을 찾아야 한다는 것이고
11:39
And the range of experience and expertise is powerful,
248
699014
3387
갈등을 조금 더 잘 참아야 한다는 뜻이지요.
11:42
as are the conflicts and the challenges.
249
702425
2303
11:45
Being diverse requires a constant willingness
250
705085
2262
저희는 또한
11:47
to find ways to hold people in conversation.
251
707371
2627
일을 할 새로운 방식을 찾는 것은
다른 사람들도 함께 그 여정에 함께할 책임감이 필요하다는 것을 느꼈습니다.
11:50
And to dwell just a little bit with the conflict.
252
710323
2865
11:53
We also worked out early
253
713911
1880
그래서 교육 과정에 문을 열었고
11:55
that the way to build a new way of doing things
254
715815
2198
2018년에 학생들도 참여할 수 있게 됐죠.
11:58
would require a commitment to bringing others along on that same journey with us.
255
718037
4143
그 뒤로는 학부생들과 함께
12:02
So we opened our doors to an education program very quickly,
256
722204
3135
그리고 박사들과 함께 일하고 있습니다.
12:05
and we launched our first master's program in 2018.
257
725363
2944
저희 학생들은 전세계에서 오며
다른 삶을 살았죠.
12:08
Since then, we've had two cohorts of master's students
258
728704
2593
호주, 뉴질랜드, 나이지리아, 네팔,
12:11
and one cohort of PhD students.
259
731321
1944
멕시코, 인도, 미국 등이요.
12:13
Our students come from all over the world
260
733683
1960
나이도 23살부터 60살까지 있어요.
12:15
and all over life.
261
735667
1222
12:16
Australia, New Zealand, Nigeria, Nepal,
262
736913
2595
다양한 관심사도 있죠.
12:19
Mexico, India, the United States.
263
739532
1959
음악, 수학, 정책, 춤,
시스템, 기준,
12:22
And they range in age from 23 to 60.
264
742286
2400
건축, 그리고 미술.
12:24
They variously had backgrounds in maths and music,
265
744997
2984
그들이 저희와 함께 일하기 전에
회사를 차린 사람도 있고 정부를 위해 일한 사람도 있고
12:28
policy and performance,
266
748005
1745
12:29
systems and standards,
267
749774
1334
군대에서 일하거나 고등학교 선생님이거나
12:31
architecture and arts.
268
751132
1459
미술 기업을 운영하기도 했죠.
12:33
Before they joined us at the Institute,
269
753385
1881
그들은 모험가고
12:35
they ran companies, they worked for government,
270
755290
2238
모두 서로에게, 그리고 새로운 것을 만드는 것에
전념하고 있습니다.
12:37
served in the army, taught high school,
271
757552
2197
12:39
and managed arts organizations.
272
759773
2067
무엇을 더 바랄까요?
12:42
They were adventurers
273
762329
1564
제가 실리콘 밸리에서 20년 있었지만
12:43
and committed to each other,
274
763917
1414
저는 외로운 발명가의 이야기와
12:45
and to building something new.
275
765355
1475
12:47
And really, what more could you ask for?
276
767630
2513
영웅의 이야기도 알고
그리고 현실도 압니다.
12:50
Because although I've spent 20 years in Silicon Valley
277
770922
2532
영웅의 여정이란 것은 없지요.
항상 사람들이 함께 모여 공통된 목표를 가지고
12:53
and I know the stories about the lone inventor
278
773478
2175
12:55
and the hero's journey,
279
775677
1436
세상을 바꾸는 것이지요.
12:57
I also know the reality.
280
777137
1603
12:58
That it's never just a hero's journey.
281
778764
2186
그래서 어디서 시작해야 할까요?
13:00
It's always a collection of people who have a shared sense of purpose
282
780974
3643
글쎄요, 저는 지금 서계신 곳에서 시작해야 한다고 봅니다.
본인이 밟고 있는 그 곳의 진정한 주인을
13:04
who can change the world.
283
784641
1680
받아들일 마음을 가져야 한다는 겁니다.
13:06
So where do you start?
284
786807
1680
은군나왈과 은감브리 사람들은
13:09
Well, I think you start where you stand.
285
789299
2412
본인의 땅에 서
항상 도망가지 않았습니다.
13:12
And for me, that means I want to acknowledge
286
792077
2063
저는 이 곳의 과거와 현재의 노인 분들께 공경을 표합니다.
13:14
the traditional owners of the land upon which I'm standing.
287
794164
2777
13:16
The Ngunnawal and Ngambri people,
288
796965
1587
오늘 모이신 분들도 다양한 곳에서 오신 것을
13:18
this is their land,
289
798576
1167
잘 알고 있습니다.
13:19
never ceded, always sacred.
290
799767
1365
그 곳의 주인과 노인 분들께도
13:21
And I pay my respects to the elders, past and present, of this place.
291
801156
3373
공경을 표합니다.
13:25
I also acknowledge that we're gathering today
292
805315
2111
이런 말들을 하고
13:27
in many other places,
293
807450
1445
의미를 곱씹는 것은 큰 의미입니다.
13:28
and I pay my respects to the traditional owners and elders
294
808919
2718
저희가 6만년 동안 점령됐던 땅에
13:31
of all those places too.
295
811661
1510
산다는 것도요.
13:33
It means a lot to me to get to say those words
296
813617
2207
13:35
and to dwell on what they mean and signal.
297
815848
2531
원주민들은 이곳에서 세상을 구축하고
13:38
And to remember that we live in a country
298
818855
1961
사회와 소통하고 기술을 만들었습니다.
13:40
that has been continuously occupied for at least 60,000 years.
299
820840
3261
이 공간을 잘 관리할 방법을 만들고
계약된 기간 동안 잘 관리했죠.
13:44
Aboriginal people built worlds here,
300
824979
1905
13:46
they built social systems, they built technologies.
301
826908
2499
누군가 이곳에서 호주인으로서
13:49
They built ways to manage this place
302
829837
1729
이 자리에 선다면,
13:51
and to manage it remarkably over a protracted period of time.
303
831590
3254
그 역사에 특혜와 책임감을
가지시길 바랍니다.
13:55
And every moment any one of us stands on a stage as Australians,
304
835935
3000
하지만 이것은 그저 단순한 역사가 아니지요.
이는 매우 중요한 자료들이고
13:58
here or abroad,
305
838959
1284
14:00
we carry with us a privilege and a responsibility
306
840267
2287
관점이고 지식이죠.
이는 우리의 뼈 속에 있고
14:02
because of that history.
307
842578
1361
14:04
And it's not just a history.
308
844241
1706
저희가 항상 하는 이야기의 일부분이죠.
14:05
It's also an incredibly rich set of resources,
309
845971
2517
이는 다르게 생각하고
14:08
worldviews and knowledge.
310
848512
1944
다른 질문을 던지고
14:10
And it should run through all of our bones
311
850480
2444
14:12
and it should be the story we always tell.
312
852948
2415
세상과 시스템을 하나로 보고
여러분의 여정을 함께할 사람을 찾는 것입니다.
14:15
Ultimately, it's about thinking differently,
313
855778
2182
14:17
asking different kinds of questions,
314
857984
2556
왜냐하면 저에게는
미래와 스케일에 대해 생각할 유일한 방법은
14:20
looking holistically at the world and the systems,
315
860564
2737
함께하는 것이였습니다.
14:23
and finding other people who want to be on that journey with you.
316
863325
3249
왜냐하면 저에게는
14:26
Because for me,
317
866598
1201
우리 모두 함께 있다는 것이
14:27
the only way to actually think about the future and scale
318
867823
3306
책임감 있고, 안전하고,
14:31
is to always be doing it collectively.
319
871153
2437
그리고 오래 유지 가능한 것들에 대해
14:33
And because for me,
320
873614
1349
생각하는 방법이니까요.
14:34
the notion of humans in it together
321
874987
2537
감사 합니다.
14:37
is one of the ways we get to think about things
322
877548
2214
14:39
that are responsible, safe
323
879786
2357
14:42
and ultimately, sustainable.
324
882167
1872
14:45
Thank you.
325
885143
1150
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7