How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

60,892 views ・ 2024-05-01

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jaikyoung Oh 검토: DK Kim
00:03
When I talk to people about artificial intelligence,
0
3583
3963
인공 지능에 대해 사람들과 이야기하면
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
비전문가들은 주로 이렇게 말합니다.
“저는 AI가 이해가 안 됩니다.“
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
그런데 전문가들과 이야기를 하면 재밌는 일이 벌어집니다.
그들은 이렇게 말하죠.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
“저는 AI를 잘 모르겠고, 실은 아무도 이해하지 못해요.”
00:21
This is a pretty strange state of affairs.
4
21393
3503
이건 참 이상한 일이에요.
00:24
Normally, the people building a new technology
5
24896
3295
보통 새로운 기술을 개발하는 사람들은
00:28
understand how it works inside and out.
6
28233
2669
그 기술이 안팎으로 어떻게 작동하는지 이해합니다.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
하지만 우리를 둘러싼 세계를 근본적으로 바꾸고 있는 기술인 AI의 경우에는
00:36
that's not so.
8
36283
1167
그렇지 않습니다.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
물론 전문가들은 AI를 구축하고 운영하는 방법은 잘 압니다.
00:42
But when it comes to how they work on the inside,
10
42455
2503
하지만 내부에서 작동하는 방식이라면
우리가 아는 것에 심각한 한계가 있습니다.
00:45
there are serious limits to how much we know.
11
45000
2877
00:48
And this matters because without deeply understanding AI,
12
48420
3879
이것이 중요한 이유는 AI에 대한 깊은 이해 없이는
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
AI가 다음에 무엇을 할 수 있을지 알기가 정말 어렵기 때문입니다.
00:56
or even what it can do now.
14
56636
2336
심지어 지금 무엇을 할 수 있는지조차도요.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
그리고 기술의 상황을 이해하고 나아갈 방향 예측에
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
그토록 어려움을 겪고 있다는 사실은
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
AI 통제에서 우리가 직면하는 아주 큰 장애물 중 하나입니다.
01:12
But AI is already all around us,
18
72861
2294
하지만 AI는 이미 우리 주변에 널려 있고,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
그래서 상황이 더 명확해지기만을 가만히 앉아서 기다릴 수는 없습니다.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
어쨌든 우리는 앞으로 나아갈 방법을 만들어야 합니다.
저는 이러한 AI 정책과 통제 문제를
01:24
I've been working on these AI policy and governance issues
21
84080
3629
01:27
for about eight years,
22
87751
1167
약 8년 동안 처음에는 샌프란시스코에서,
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
지금은 워싱턴 DC에서 연구했습니다.
01:32
Along the way, I've gotten an inside look
24
92922
2753
그 과정에서 정부가 이 기술을 통제하기 위해
01:35
at how governments are working to manage this technology.
25
95717
3754
어떤 노력을 하고 있는지 내부에서 살펴보았습니다.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
업계 내부에서도 한두 가지 사례를 본 적이 있습니다.
01:45
So I'm going to share a couple of ideas
27
105852
3170
그래서 저는 AI를 어떤 식으로 통제할 수 있을지
몇 가지 생각을 나누고자 합니다.
01:49
for what our path to governing AI could look like.
28
109022
3629
먼저 이야기할 것은
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
실제로 AI를 이해하고 예측하기 어렵게 만드는 것이 무엇인가입니다.
01:57
and predict.
30
117489
1251
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
인공 '지능'을 구축하는 데 한 가지 커다란 어려움은
02:03
is that no one can agree on what it actually means
32
123495
3086
지능이 과연 무엇인지에 대하여 의견이 다 다르다는 것입니다.
02:06
to be intelligent.
33
126623
1752
새로운 기술을 개발할 때 이런 문제가 있다면 이상하죠.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
라이트 형제가 비행기를 실험하기 시작했을 때
02:15
they didn't know how to build one,
36
135507
1668
비행기를 만드는 방법은 몰랐지만 비행이 무엇인지는 모두가 알았죠.
02:17
but everyone knew what it meant to fly.
37
137175
3128
02:21
With AI on the other hand,
38
141596
1794
반면 AI의 경우
02:23
different experts have completely different intuitions
39
143431
3295
지능의 핵심이 무엇인지에 대해서는
02:26
about what lies at the heart of intelligence.
40
146726
2920
전문가마다 견해가 전혀 다릅니다.
02:29
Is it problem solving?
41
149646
2210
문제 해결 능력일까요?
02:31
Is it learning and adaptation,
42
151898
2711
학습과 적응일까요,
02:34
are emotions,
43
154651
1418
감정일까요?
02:36
or having a physical body somehow involved?
44
156111
3128
아니면 육체가 어떤 식으로든 개입되는 것일까요?
02:39
We genuinely don't know.
45
159698
1459
우린 정말 몰라요.
02:41
But different answers lead to radically different expectations
46
161157
4338
하지만 이에 대한 답변이 다르면
기술이 어디로 향하고 얼마나 빨리 도달할지에 대한
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
생각이 근본적으로 달라집니다.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
우리가 얼마나 혼란스러워하는지 보여주는 예로는
협소한 AI와 일반 AI를 보는 방식을 들 수 있습니다.
02:53
about narrow versus general AI.
49
173461
2294
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
오랫동안 우리는 두 범주로 논의를 했습니다.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
많은 사람들은 AI를 구분할 때
한 가지 특정한 작업에 맞게 훈련되는 협소한 AI,
03:03
trained for one specific task,
52
183763
1919
03:05
like recommending the next YouTube video,
53
185724
2669
예를 들면 다음 유튜브 영상을 추천하는 AI와,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
인간이 할 수 있는 모든 것이 가능한 AGI라는 일반 인공 지능으로
03:12
that could do everything a human could do.
55
192272
2586
나누면 된다고 생각했습니다.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
우리는 협소한 AI와 일반 AI의 이런 구분이
03:18
as a core divide between what we could build in practice
57
198778
3963
우리가 만들 수 있는 것과 실제로 지능적인 것 사이의
03:22
and what would actually be intelligent.
58
202782
2252
핵심적인 차이라고 생각했습니다.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
그런데 한두 해 전에 챗GPT가 등장했습니다.
03:31
If you think about it,
60
211541
1543
생각해 보면,
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
이것은 특정 작업에 맞게 훈련된 협소한 AI일까요?
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
아니면 인간이 할 수 있는 모든 것을 할 수 있는 AGI일까요?
분명히 답은 둘 다 아니라는 겁니다.
03:41
Clearly the answer is neither.
63
221092
1502
03:42
It's certainly general purpose.
64
222635
1919
챗GPT는 확실히 범용입니다.
03:44
It can code, write poetry,
65
224554
2920
코딩하고, 시를 쓰고,
03:47
analyze business problems, help you fix your car.
66
227515
3045
사업 문제를 분석하고 자동차 수리를 도와줄 수 있죠.
03:51
But it's a far cry from being able to do everything
67
231352
2795
하지만 여러분이나 제가 하는 모든 것을 잘하는 것과는 거리가 멀죠.
03:54
as well as you or I could do it.
68
234189
2419
03:56
So it turns out this idea of generality
69
236608
2043
그러니까 일반성이라는 개념은
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
지능적인지 아닌지를 구분하는 좋은 기준이 아닌 것 같네요.
04:01
between intelligent and not.
71
241404
2127
이런 종류의 일은
04:04
And this kind of thing
72
244073
1335
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
현재 전체 AI 분야에서 큰 과제가 되고 있습니다.
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
우리가 무엇을 만들려 하는지, 또는
04:11
or on what the road map looks like from here.
75
251164
2419
앞으로 전망이 어떻게 될지에 대한 그 어떤 합의도 없습니다.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
심지어 현재 우리가 사용하는 AI조차 정확히 이해하지 못하고 있습니다.
왜 그럴까요?
04:18
Why is that?
77
258004
1251
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
연구자들은 오늘날 주로 구축되고 있는 AI의 주요 유형인 심층 신경망을
04:22
the main kind of AI being built today,
79
262300
2085
04:24
as a black box.
80
264427
1460
암흑 상자에 비유하기도 합니다.
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
하지만 이것이 의미하는 바는 그것이 본질적으로 불가사의해서
04:29
and we have no way of looking inside the box.
82
269974
2711
상자 안을 들여다 볼 방법이 없다는 뜻이 아닙니다.
04:33
The problem is that when we do look inside,
83
273228
2669
문제는 안을 들여다 볼 때 우리가 발견하는 것이
04:35
what we find are millions,
84
275939
2335
수백만 개, 수십억 개, 심지어 수조 개 숫자가
04:38
billions or even trillions of numbers
85
278316
2878
04:41
that get added and multiplied together in a particular way.
86
281194
3462
특정한 방식으로 더해지고 곱해지고 있는 것이라는 점입니다.
전문가들이 무슨 일이 일어나고 있는지 알기 어려운 이유는
04:45
What makes it hard for experts to know what's going on
87
285031
2544
04:47
is basically just, there are too many numbers,
88
287617
3086
단지 기본적으로 숫자가 너무 많아서
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
이들이 무엇을 하는지 잘 구별할 좋은 방법이 아직 없기 때문입니다.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
아예 없지는 않지만 많지는 않습니다.
04:58
So how do we govern this technology
91
298545
3003
그렇다면 우리가 이해하고 예측하는 데 어려움을 겪는 이 기술을
05:01
that we struggle to understand and predict?
92
301589
2628
어떻게 통제할 수 있을까요?
05:04
I'm going to share two ideas.
93
304717
1502
두 가지 방법을 말씀드릴게요.
05:06
One for all of us and one for policymakers.
94
306261
3253
하나는 우리 모두를 위한 것이고 다른 하나는 정책 입안자들용입니다.
05:10
First, don't be intimidated.
95
310932
2711
첫 번째로, 겁먹지 마세요.
기술 자체에든,
05:14
Either by the technology itself
96
314102
2461
05:16
or by the people and companies building it.
97
316563
3086
기술을 개발하는 사람과 회사에든 말이죠.
05:20
On the technology,
98
320400
1168
기술 면에서 AI는 복잡할 수 있지만 마법은 아닙니다.
05:21
AI can be confusing, but it's not magical.
99
321568
2502
AI에는 우리가 이미 잘 이해하고 있는 부분도 있고,
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
이해하지 못하는 부분도 영원히 불투명하지는 않을 것입니다.
05:31
An area of research known as “AI interpretability”
102
331619
3295
'AI 해석 가능성'이라는 연구 분야는
05:34
has made quite a lot of progress in the last few years
103
334956
3128
지난 몇 년 동안 상당한 진전을 보였고
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
수십억 개 숫자가 무엇을 하는지 이해해 나가고 있습니다.
05:42
One team of researchers, for example,
105
342463
2169
예를 들어 한 연구팀은
05:44
found a way to identify different parts of a neural network
106
344674
3420
신경망의 여러 부분을 식별하여
05:48
that they could dial up or dial down
107
348136
2335
AI의 답변을 조작하는 방법을 알아냈습니다.
05:50
to make the AI's answers happier or angrier,
108
350513
3754
더 행복하거나, 더 화나게 하거나, 더 정직하게 하거나,
05:54
more honest,
109
354309
1418
05:55
more Machiavellian, and so on.
110
355768
2545
더 마키아벨리식으로도 만들 수 있는 거죠.
05:58
If we can push forward this kind of research further,
111
358771
2503
지금으로부터 5~10년 후에 이런 연구를 더 발전시킬 수 있다면,
06:01
then five or 10 years from now,
112
361316
2210
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
이른바 블랙박스 안에서 무슨 일이 벌어지고 있는지
06:06
inside the so-called black box.
114
366571
2669
훨씬 더 명확하게 이해할 수 있을 것입니다.
06:10
And when it comes to those building the technology,
115
370325
2669
또 이러한 기술을 개발하는 사람들에 대해 말하자면,
기술자들은 때로
06:13
technologists sometimes act as though
116
373036
1918
06:14
if you're not elbows deep in the technical details,
117
374996
3420
누군가 기술적 세부 사항을 깊이 알지 못한다면,
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
그 용도에 대해 의견을 낼 자격이 없다는 식으로 행동하곤 합니다.
06:22
Expertise has its place, of course,
119
382337
2294
물론 전문성이 필요한 분야가 있지만
06:24
but history shows us how important it is
120
384672
2169
역사를 보면 새로운 기술에 영향을 받는 사람들이
06:26
that the people affected by a new technology
121
386883
3003
기술을 사용하는 방식을 결정하는 데 참여하는 것이
06:29
get to play a role in shaping how we use it.
122
389886
2753
얼마나 중요한지 알 수 있습니다.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
작업장 안전을 위해 싸웠던 20세기의 공장 노동자들이나
06:37
or the disability advocates
124
397310
2127
장애인들도 월드 와이드 웹을 편히 쓸 수 있게 요구했던 이들처럼요.
06:39
who made sure the world wide web was accessible.
125
399437
3003
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
목소리를 내기 위해 과학자나 공학자가 될 필요는 없습니다.
06:48
(Applause)
127
408821
4547
(박수)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
둘째, 확실성이 아니라 적응성에 초점을 맞춰야 합니다.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
AI 정책을 만드는 방법을 논의하다가 교착 상태에 자주 빠집니다.
07:02
get bogged down in fights between, on the one side,
130
422919
2711
두 편이 싸우는데 한쪽에서는 이렇게 말합니다.
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
“AI는 매우 위험하니 지금 당장 강하게 규제해야 합니다.“
07:08
because it's so risky."
132
428716
1585
07:10
And on the other side, people saying,
133
430301
1794
반대편에서는 이렇게 말합니다.
“하지만 규제는 혁신을 죽일 것이고 그런 위험은 어떻게든 수습됩니다.”
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
07:16
But the way I see it,
135
436307
1168
그런데 제가 보기에는
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
브레이크나 가속 페달 중 하나만 선택할 수 있는 것은 아닙니다.
07:20
or hitting the gas.
137
440478
1502
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
예상치 못한 굴곡이 있는 도로를 주행할 때는
07:26
then two things that will help you a lot
139
446275
2503
이 두 가지가 큰 도움이 될 것입니다.
07:28
are having a clear view out the windshield
140
448778
2794
앞 유리 너머를 명확히 보는 것과
07:31
and an excellent steering system.
141
451614
2419
훌륭한 조향 장치입니다.
AI에서 이들의 의미는
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
이 기술이 지금 어디에 있고 어디를 향하는지 명확하게 파악하고,
07:39
and where it's going,
143
459080
1627
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
다양한 상황에서 어떻게 할지 계획을 세워야 한다는 것입니다.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
구체적으로 말하면, 이는 AI가 할 수 있는 일을 측정할 수 있는
능력에 투자하는 것을 의미합니다.
07:49
what AI systems can do.
146
469132
1877
07:51
This sounds nerdy, but it really matters.
147
471342
3212
이상하게 들리지만 정말 중요합니다.
07:54
Right now, if we want to figure out
148
474595
2044
지금으로서는 AI가
07:56
whether an AI can do something concerning,
149
476681
2002
무언가 중요한 것을 할 수 있는지 없는지를 알고 싶을 떄,
07:58
like hack critical infrastructure
150
478725
2377
예를 들면 핵심 기반 시설을 해킹할 수 있는지, 또는
08:01
or persuade someone to change their political beliefs,
151
481102
4671
어떤 사람이 정치적 신념을 바꾸도록 설득할 수 있는지 알고자 할 때,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
이를 측정할 방법이 미흡합니다.
08:08
We need better.
153
488317
1210
더 발전한 방법이 필요합니다.
08:10
We should also be requiring AI companies,
154
490319
2545
우리는 또한 AI 기업,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
특히 최첨단 AI를 구축하는 회사에게
08:16
to share information about what they're building,
156
496367
3170
무엇을 구축하고 있는지, 그들의 AI가 무엇을 할 수 있는지,
08:19
what their systems can do
157
499537
1710
위험을 어떻게 관리하는지에 대한 정보를 공개하도록 요구해야 합니다.
08:21
and how they're managing risks.
158
501289
2127
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
그리고 AI의 작업을 철저히 감시하는 외부 감사인을 두도록 해서
기업이 자신의 과제를 자신이 채점하지 않게 해야 합니다.
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
08:33
(Applause)
161
513801
4213
(박수)
측정 방법의 마지막 예는
08:38
A final example of what this can look like
162
518014
2461
08:40
is setting up incident reporting mechanisms,
163
520475
3503
사고 보고 절차를 만드는 것입니다.
그래야 현실 세계에서 문제가 발생했을 때
08:44
so that when things do go wrong in the real world,
164
524020
2753
08:46
we have a way to collect data on what happened
165
526814
2962
무슨 일이 일어났는지와 다음에 어떻게 고칠 수 있는지에 대한
08:49
and how we can fix it next time.
166
529817
2002
자료를 수집할 수 있습니다.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
비행기 추락 사고나 사이버 공격 시에 데이터를 수집하는 것처럼 말이죠.
08:57
None of these ideas are mine,
168
537158
1668
이 아이디어들은 모두 제 것이 아니며,
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
이들 중 일부는 브뤼셀이나 런던,
워싱턴 같은 곳에서도 이미 구현되기 시작한 것도 있습니다.
09:03
London, even Washington.
170
543372
2128
하지만 제가 이러한 아이디어를 강조하는 이유는
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
09:08
measurement, disclosure, incident reporting,
172
548669
4046
측정이나 공개 및 사고 보고와 같은 것은
09:12
is that they help us navigate progress in AI
173
552757
2794
AI가 진전하는 데 길잡이로 도움이 되기 때문입니다.
09:15
by giving us a clearer view out the windshield.
174
555593
3086
이는 앞 유리 너머로 명확하게 보는 것과 같습니다.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
AI가 위험한 방향으로 빠르게 발전하고 있다면
09:22
these policies will help us see that.
176
562475
2377
이러한 정책이 이를 파악하는 데 도움이 될 것입니다.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
모든 것이 순조롭게 진행된다면, 그 점도 우리에게 보여 줄 것이고,
09:28
and we can respond accordingly.
178
568981
2211
우리는 그에 따라 대응할 수 있습니다.
09:33
What I want to leave you with
179
573569
1502
제가 여러분께 전하고 싶은 것은 이 두 가지가 다 사실이라는 것입니다.
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
하나는 AI 분야에는 엄청난 불확실성과 의견 차이가 있다는 것이고
09:39
and disagreement in the field of AI.
181
579742
2961
09:42
And that companies are already building and deploying AI
182
582745
4046
또 하나는 회사들은 어쨌든 우리 모두에게 영향을 미치는 방식으로
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
곳곳에 AI를 구축하고 배포하고 있다는 것입니다.
그들 자체의 도구에만 맡기면
09:52
Left to their own devices,
184
592004
1544
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
AI 회사들은 소셜 미디어 기업과 비슷한 방향으로 나아갈 것입니다.
09:56
to social media companies,
186
596717
1961
09:58
spending most of their resources on building web apps
187
598678
2627
소비자의 관심을 끄는 앱을 개발하는 데 자원을 대부분 사용할 것입니다.
10:01
and for users' attention.
188
601305
1836
그리고 기본적으로 이는 더 발전된 AI의 엄청난 힘을
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
소수 기업의 손에 집중하거나,
심지어 몇몇 개인에게 집중할 수도 있습니다.
10:12
or even a small number of individuals.
191
612567
1918
10:15
But AI's potential goes so far beyond that.
192
615278
3253
하지만 AI의 잠재력은 그 이상입니다.
10:18
AI already lets us leap over language barriers
193
618531
2711
AI를 통해 우리는 이미 언어 장벽을 뛰어넘고
10:21
and predict protein structures.
194
621284
2252
단백질 구조를 예측할 수 있습니다.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
더 발전된 AI는 깨끗하고 무한한 핵융합 에너지의 비밀을 풀거나
식량을 키우는 방법을 혁신하거나, 천 가지 다른 일을 할 수 있습니다.
10:28
or revolutionize how we grow food
196
628082
2503
10:30
or 1,000 other things.
197
630626
1835
10:32
And we each have a voice in what happens.
198
632962
2586
우리는 어떤 일이 벌어질지에 대한 각자의 생각이 있죠.
10:35
We're not just data sources,
199
635548
2002
우리는 그저 데이터의 원천이 아닙니다.
10:37
we are users,
200
637592
2043
우리는 사용자이자 노동자이고
10:39
we're workers,
201
639635
1502
10:41
we're citizens.
202
641137
1209
시민입니다.
10:43
So as tempting as it might be,
203
643514
2961
따라서 아무리 매혹적일지라도
10:46
we can't wait for clarity or expert consensus
204
646475
4672
우리는 우리가 AI로 하고 싶은 것을 파악하기 위해
10:51
to figure out what we want to happen with AI.
205
651147
3378
명확성이나 전문가의 합의를 기다릴 수는 없습니다.
10:54
AI is already happening to us.
206
654525
2586
AI는 이미 우리에게 일어나고 있는 일입니다.
10:57
What we can do is put policies in place
207
657737
3211
우리가 할 수 있는 일은 기술이 어떻게 변하고 있는지를
11:00
to give us as clear a picture as we can get
208
660948
2670
최대한 명확하게 파악할 수 있는 정책을 시행하는 것입니다.
11:03
of how the technology is changing,
209
663618
2460
그러면 전장에 뛰어들어 우리가 진짜로 원하는 미래로 나아갈 수 있습니다.
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
11:11
Thank you.
211
671751
1126
감사합니다.
11:12
(Applause)
212
672919
3378
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7