AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

887,805 views ・ 2023-11-06

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jinsol Song 검토: DK Kim
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
저는 인공 지능 연구원으로 십 년 넘게 일했습니다.
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
그런데 몇 개월 전, 최고로 이상한 메일을 받았죠.
00:11
A random stranger wrote to me
2
11925
1668
모르는 사람이 보냈는데,
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
제가 연구하는 AI가 인류를 멸망시킬 거라고 했어요.
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
무슨 말인지 알겠어요, AI가 지금 한창이잖아요.
00:22
(Laughter)
5
22352
1627
(웃음)
매일 뉴스 머리기사에 뜨는데 때로는 아주 대단한 걸 때도 있죠.
00:24
It's in the headlines pretty much every day,
6
24020
2086
00:26
sometimes because of really cool things
7
26106
1918
의료용 새로운 분자를 발견했다거나 흰색 패딩을 입은 교황 같은 거요.
00:28
like discovering new molecules for medicine
8
28066
2169
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
00:33
But other times the headlines have been really dark,
10
33446
2461
하지만 그를 제외하면 머리기사들은 정말 암담했죠.
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
아내와 이혼하라고 부추기는 챗봇이라든가
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
사람들에게 대접할 음식으로
염소 가스가 들어간 요리법을 알려준 AI 식사 계획 어플이라든지요.
00:43
featuring chlorine gas.
13
43707
2002
00:46
And in the background,
14
46376
1418
또한 그와 함께 인류 최후의 날이라든가
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
실존적인 위험, 그리고 특이점에 대해 많이 들었죠.
00:50
existential risk and the singularity,
16
50255
1918
00:52
with letters being written and events being organized
17
52215
2503
그런 일들이 일어나지 않도록 하려는 글이나 행사도 있었고요.
00:54
to make sure that doesn't happen.
18
54718
2002
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
저는 인공 지능이 사회에 미칠 영향에 대해 연구하지만
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
10년이나 20년 뒤에 무슨 일이 일어날진 모르겠어요.
01:05
and nobody really does.
21
65145
2461
사실 아무도 모르죠.
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
제가 아는 건
지금 이 순간에 아주 안 좋은 일이 일어나고 있다는 거예요.
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
AI는 혼자 존재하는 게 아니거든요.
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
AI는 사회의 일부분이고 인간과 지구에 영향을 미쳐요.
01:20
AI models can contribute to climate change.
25
80160
2502
기후 변화에 AI 모형이 영향을 줄 수도 있죠.
01:22
Their training data uses art and books created by artists
26
82704
3462
AI는 창작가의 동의 없이 그림이나 책을 사용해서 학습해요.
01:26
and authors without their consent.
27
86207
1710
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
그리고 AI를 적용하면 한 집단 전체를 차별할 수도 있죠.
01:32
But we need to start tracking its impacts.
29
92797
2127
그 영향들을 추적하기 시작해야 해요.
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
이제 투명하게 밝히고 도구를 만들어서
01:38
so that people understand AI better,
31
98595
2419
인공 지능을 더 잘 이해할 수 있게 하고
01:41
so that hopefully future generations of AI models
32
101056
2335
미래 AI가 더욱 신뢰받고 지속 가능할 수 있게 하고
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
여러분이 원하는 게 그거라면, 인간을 죽이지 않게 해야 해요.
01:50
But let's start with sustainability,
35
110148
1752
먼저 지속 가능성부터 봅시다.
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
AI가 살아가는 ‘클라우드’는
사실 철, 플라스틱으로 되어 있고 에너지가 엄청나게 많이 필요하거든요.
01:57
and powered by vast amounts of energy.
37
117656
2460
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
인공 지능에 질문을 할 때마다 지구의 자원이 소모되죠.
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
작년에 빅사이언스 계획에 참여했었는데
02:08
which brought together a thousand researchers
40
128833
2127
전 세계에서 연구자들 천 명이 모여서 '블룸'을 만드는 일이었죠.
02:10
from all over the world to create Bloom,
41
130960
2503
02:13
the first open large language model, like ChatGPT,
42
133505
4337
챗지피티 같은 것으로 최초 대규모 공개 언어 모델이지만
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
윤리, 투명성과 동의에 중점을 두었죠.
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
저는 블룸이 환경에 미치는 영향 연구를 주도했는데
블룸을 훈련하는 것만으로도
02:25
found that just training it used as much energy
45
145016
3253
가정집 30곳이 일 년 내내 쓰는 에너지만큼을 소모하고
02:28
as 30 homes in a whole year
46
148311
2211
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
이산화 탄소 25톤을 배출한다고 나타났죠.
차로 지구를 다섯 바퀴 도는 셈인데
02:33
which is like driving your car five times around the planet
48
153024
3253
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
AI로 그저 말장난을 하나 하는 데에 말이죠.
02:39
And this might not seem like a lot,
50
159489
2169
이건 그렇게 많아 보이지 않을지 몰라도
02:41
but other similar large language models,
51
161700
2460
지피티 3 같은 비슷한 다른 대규모 언어 모델들은
02:44
like GPT-3,
52
164202
1126
02:45
emit 20 times more carbon.
53
165370
2544
탄소를 20배나 더 배출합니다.
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
그런데 문제는 기술 회사들이 이걸 측정도 공개도 안 한다는 겁니다.
02:50
They're not disclosing it.
55
170875
1252
이것은 빙산의 일각에 불과해요.
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
02:54
even if it is a melting one.
57
174629
1418
녹고 있는 빙산이긴 하지만 말이죠.
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
최근 몇 년간 AI 모델 규모가 커지는 것을 봤는데
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
이건 현재 AI 추세가 '클수록 좋다'이기 때문이에요.
03:04
But please don't get me started on why that's the case.
60
184305
2795
왜 그런 건지는 묻지 마세요.
03:07
In any case, we've seen large language models in particular
61
187100
3003
어쨌든 특히 대형 언어 모델들이
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
지난 오 년간 이천 배나 성장했죠.
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
물론 환경 비용도 증가하고 있습니다.
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
최근에 제가 주도했던 연구에서는
작고 효율적인 모델을 더 큰 언어 모델로 바꾸게 되면
03:20
more efficient model for a larger language model
65
200238
3337
03:23
emits 14 times more carbon for the same task.
66
203616
3754
똑같은 작업에 탄소를 14배나 더 배출한다는 걸 알 수 있었죠.
03:27
Like telling that knock-knock joke.
67
207412
1877
아까 말한 말장난 같은 작업 말입니다.
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
이런 모델을 휴대폰, 검색 엔진,
03:32
and smart fridges and speakers,
69
212792
2836
스마트 냉장고와 스피커에 적용하면서
03:35
the environmental costs are really piling up quickly.
70
215628
2628
환경 비용이 본격적으로 빠르게 상승하고 있죠.
03:38
So instead of focusing on some future existential risks,
71
218840
3754
그러므로 미래의 실존적 위험보다는
03:42
let's talk about current tangible impacts
72
222635
2753
지금 일어나고 있는 눈에 보이는 영향과
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
그 영향을 측정하고 완화할 도구에 대해 얘기해 봅시다.
03:49
I helped create CodeCarbon,
74
229893
1668
제가 제작에 참여했던 ‘코드카본’ 프로그램은
03:51
a tool that runs in parallel to AI training code
75
231603
2961
코드를 학습하는 인공 지능과 병행해서 작동하며
03:54
that estimates the amount of energy it consumes
76
234564
2211
인공 지능이 소비하는 에너지와 방출하는 탄소를 측정합니다.
03:56
and the amount of carbon it emits.
77
236775
1668
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
이 프로그램을 사용하면 더 나은 선택을 할 수 있어요.
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
예를 들어 모델들을 비교해 지속 가능성이 높은 걸 고르거나
04:04
or deploying AI models on renewable energy,
80
244657
2920
재생 가능한 에너지로 돌아가는 인공 지능을 사용할 수 있는데
04:07
which can drastically reduce their emissions.
81
247619
2544
그러면 탄소 배출량을 눈에 띄게 줄일 수 있겠죠.
04:10
But let's talk about other things
82
250163
2085
다른 것도 얘기해 볼까요?
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
지속 가능성 외에도 AI가 미치는 영향들이 있죠.
04:15
For example, it's been really hard for artists and authors
84
255627
3128
예를 들어 예술가와 작가들은
자신들의 작품들이 AI 모델 학습에 쓰일 때
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
그들의 동의를 받지 않았음을 증명하기가 무척 힘들었죠.
04:23
without their consent.
86
263051
1209
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
누군가를 고소하려면 증거가 필요하잖아요?
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
그래서 예술가들이 설립한 단체인 스파우닝 AI가
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
'내가 학습에 사용됐나?'라는 정말 멋진 프로그램을 만들었죠.
04:35
And it lets you search these massive data sets
90
275104
2461
그걸로 거대한 데이터를 검색해서 내 작품이 쓰였는지 알 수 있어요.
04:37
to see what they have on you.
91
277607
2085
04:39
Now, I admit it, I was curious.
92
279734
1668
사실 저도 궁금했죠.
04:41
I searched LAION-5B,
93
281444
1627
영상과 문자의 거대한 집합체인 LAION-5B를 조사했어요.
04:43
which is this huge data set of images and text,
94
283112
2461
04:45
to see if any images of me were in there.
95
285615
2711
제 사진도 있는지 궁금했거든요.
04:49
Now those two first images,
96
289285
1585
저 첫 번째 사진 두 장은 제가 강연한 행사에서 찍은 거예요.
04:50
that's me from events I've spoken at.
97
290870
2169
04:53
But the rest of the images, none of those are me.
98
293081
2753
하지만 나머지 사진들은 제가 아니에요.
04:55
They're probably of other women named Sasha
99
295875
2002
그것들은 사샤라는 다른 여자가 인터넷에 올린 사진일 거예요.
04:57
who put photographs of themselves up on the internet.
100
297919
2628
제가 이미지 생성 모델을 이용해서 사샤라는 여성의 사진을 만들면
05:01
And this can probably explain why,
101
301047
1627
05:02
when I query an image generation model
102
302715
1836
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
자꾸 비키니 모델 이미지가 나오는 이유가 바로 이것이겠죠.
05:06
more often than not I get images of bikini models.
104
306886
2753
05:09
Sometimes they have two arms,
105
309681
1626
팔이 두 개이기도 하고 가끔은 세 개이기도 하지만
05:11
sometimes they have three arms,
106
311349
2294
(웃음)
05:13
but they rarely have any clothes on.
107
313685
2043
옷을 제대로 갖춰 입은 사진은 거의 없죠.
05:16
And while it can be interesting for people like you and me
108
316563
2794
이런 사진을 찾아보는 저나 여러분에게는 재미있는 것이겠지만
05:19
to search these data sets,
109
319357
2127
05:21
for artists like Karla Ortiz,
110
321526
2044
카를라 오티즈 같은 예술가인 경우
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
그녀의 예술 작품이 동의 없이 AI 모델을 훈련하는 데 사용되었다는
중요한 증거를 제공하는 프로그램이죠.
05:27
was used for training AI models without her consent,
112
327365
2961
05:30
and she and two artists used this as evidence
113
330326
2336
카를라와 예술가 두 명은 이 증거를 사용해서
05:32
to file a class action lawsuit against AI companies
114
332704
2794
AI 회사를 상대로 저작권 침해 혐의로 집단 소송을 제기했습니다.
05:35
for copyright infringement.
115
335540
1960
05:37
And most recently --
116
337542
1168
그리고 최근에,
05:38
(Applause)
117
338710
3378
(박수)
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
최근에 스파우닝 AI는 제 직장인 허깅페이스와 협약을 맺어
05:45
the company where I work at,
119
345216
1585
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
이런 데이터 집합을 생성하는 데에 참여, 거부 절차를 만들었습니다.
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
사람이 창작하는 예술은
AI 언어 모델 교육을 위한 무한 리필 뷔페가 아니니까요.
05:55
for training AI language models.
122
355727
1793
05:58
(Applause)
123
358313
4254
(박수)
06:02
The very last thing I want to talk about is bias.
124
362567
2336
마지막으로 편견에 대해서 봅시다.
06:04
You probably hear about this a lot.
125
364944
1919
이에 대해 많이 들어보셨을 거예요.
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
길게 말하자면 AI 모델이 고정 관념과 인종 차별,
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
그리고 성차별이 담긴 패턴과 신념을 부호화하는 것이죠.
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
제 영웅인 조이 부올람위니 박사가 이걸 직접 경험했죠.
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
조이가 흰색 마스크를 끼지 않으면 AI는 그의 얼굴을 감지하지 못했어요.
06:20
unless she was wearing a white-colored mask.
130
380752
2169
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
더 깊이 파고들자 일반적인 안면 인식 시스템은
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
백인 남성에 비해 유색 인종 여성에서 더욱 엉망이라는 점을 알게 되었죠.
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
이렇게 편향된 프로그램들이 사법 체계에 적용되면
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
누명이나 부당한 징역살이를 초래할 수도 있어요.
최근 몇 달간 이런 일이 여러 명에게 일어났죠.
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
임신 팔 개월 차인 포르차 우드러프는 억울하게 자동차 절도 혐의를 받았는데
06:47
at eight months pregnant
137
407111
1252
06:48
because an AI system wrongfully identified her.
138
408363
2961
그 이유는 AI 시스템이 그녀를 잘못 인식했기 때문이었죠.
06:52
But sadly, these systems are black boxes,
139
412325
2002
그런데 안타깝지만 이 시스템은 불랙박스예요.
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
왜 이렇게 작동하는지는 만든 사람조차 설명하지 못하죠.
07:00
And for example, for image generation systems,
141
420917
3462
예를 들어서 영상 생성 시스템이
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
가해자에 대한 묘사를 바탕으로 용의자 몽타주를 생성할 때
07:08
based on a description of a perpetrator,
143
428549
2711
07:11
they take all those biases and they spit them back out
144
431260
3587
위험한 범죄자, 테러리스트, 범죄 집단이라는 단어를 넣으면
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
그에 대한 편견을 그대로 반영해서 답을 내놓죠.
07:18
which of course is super dangerous
146
438393
2168
이런 도구가 우리 사회에 적용되면 당연히 정말 위험합니다.
07:20
when these tools are deployed in society.
147
440603
4421
07:25
And so in order to understand these tools better,
148
445566
2294
저는 이러한 도구를 더 잘 알아보려고
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
스테이블 바이어스 익스플로러라는 프로그램을 만들었죠.
07:31
which lets you explore the bias of image generation models
150
451155
3379
이것으로 영상 생성 모델들에 있는 직업에 대한 편견을 알아볼 수 있어요.
07:34
through the lens of professions.
151
454575
1669
07:37
So try to picture a scientist in your mind.
152
457370
3045
과학자에 대한 영상을 마음속으로 그려 보세요.
07:40
Don't look at me.
153
460456
1168
절 쳐다보지 마시구요.
07:41
What do you see?
154
461666
1335
뭐가 보이시나요?
07:43
A lot of the same thing, right?
155
463835
1501
이런 게 많이 보이죠?
07:45
Men in glasses and lab coats.
156
465378
2377
안경을 쓰고 실험복을 입은 남자들이요.
07:47
And none of them look like me.
157
467797
1710
저랑 닮은 사람은 한 명도 없네요.
07:50
And the thing is,
158
470174
1460
영상 생성 모델을 모두 봤는데 문제는 같은 현상을 많이 발견했다는 거예요.
07:51
is that we looked at all these different image generation models
159
471676
3253
07:54
and found a lot of the same thing:
160
474929
1627
07:56
significant representation of whiteness and masculinity
161
476597
2586
저희가 알아 본 직업 150개 모두에서 백인성과 남성성이 과하게 나타났죠.
07:59
across all 150 professions that we looked at,
162
479225
2127
08:01
even if compared to the real world,
163
481352
1794
미국 노동 통계국에 나와 있는 현실 세상과 비교해서도요.
08:03
the US Labor Bureau of Statistics.
164
483187
1836
이러한 모델들은 남성 변호사, 남성 CEO 등
08:05
These models show lawyers as men,
165
485023
3044
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
거의 모든 사람을 백인 남성으로 그렸죠.
08:11
even though we all know not all of them are white and male.
167
491571
3170
변호사나 CEO가 모두 백인 남자인 건 아닌데도요.
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
안타깝지만 제 프로그램이 아직 법률 제정에 이용되진 않았죠.
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
하지만 최근 성 편견을 다룬 UN 행사에 프로그램을 소개하면서
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
각계각층의 사람들, 혹은 코딩을 할 줄 모르는 사람들을 위해서도
08:27
even those who don't know how to code,
171
507086
2252
AI에 관여하고 더 잘 이해할 수 있는 도구를 만들 수 있다는 걸 설명했죠.
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
저희는 직업을 사용했지만 마음에 드는 어떤 단어로 해도 돼요.
08:32
but you can use any terms that are of interest to you.
173
512633
3087
08:36
And as these models are being deployed,
174
516596
2752
이런 모델들이 사용되면서
08:39
are being woven into the very fabric of our societies,
175
519390
3128
우리 사회의 모든 면과
08:42
our cell phones, our social media feeds,
176
522518
2044
핸드폰, 소셜미디어 피드,
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
심지어 사법 체계나 경제까지 모든 것이 영향을 받습니다.
08:47
And it's really important that AI stays accessible
178
527815
3879
AI가 언제 잘 작동하고 언제 작동하지 않는지 알 수 있도록
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
AI에 언제나 접근할 수 있도록 하는 건 정말 중요합니다.
08:56
And there's no single solution for really complex things like bias
180
536908
4296
편견, 저작권, 기후 변화처럼 너무나 복잡한 문제들에는
09:01
or copyright or climate change.
181
541245
2419
간단한 해결 방법이 없어요.
09:03
But by creating tools to measure AI's impact,
182
543664
2711
하지만 AI의 영향을 측정하는 도구를 만들어서
09:06
we can start getting an idea of how bad they are
183
546375
3337
이것들이 얼마나 안 좋은지 알 수 있으며
09:09
and start addressing them as we go.
184
549754
2502
앞으로 문제를 해결해 나갈 수 있고
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
사회와 지구를 보호하는 방호책을 만들 수도 있죠.
09:16
And once we have this information,
186
556177
2336
일단 우리가 이 정보를 얻으면
09:18
companies can use it in order to say,
187
558513
1835
기업들은 이렇게 말할 거예요.
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
"이 모델이 더 지속 가능하니까 이걸 써야겠군."
09:23
this model because it respects copyright.
189
563601
2044
"이 모델이 저작권을 보호하니까 이걸 써야겠군."
09:25
Legislators who really need information to write laws,
190
565686
3087
법률 제정에 정보가 정말로 필요한 국회의원들은
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
이 도구들을 이용해 새로운 법안을 개발하거나
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
사회에 널리 쓰이는 인공 지능을 관리하는 방법을 모색할 수 있죠.
09:36
And users like you and me can use this information
193
576114
2377
저와 여러분 같은 이용자는 이러한 정보들을 사용해
09:38
to choose AI models that we can trust,
194
578491
3337
믿을 수 있는 AI 모델, 우리를 왜곡하지 않을 AI 모델,
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
우리 정보를 남용하지 않을 AI 모델을 선택할 수 있죠.
09:45
But what did I reply to that email
196
585790
1918
제 일이 인류를 멸망시킬 거라는 이메일에는 뭐라고 답했냐고요?
09:47
that said that my work is going to destroy humanity?
197
587750
2961
09:50
I said that focusing on AI's future existential risks
198
590711
4046
우리가 AI가 몰고 올 미래 실존 위험에 집중한다면
09:54
is a distraction from its current,
199
594799
2044
현재 일어나고 있는 매우 실질적인 영향을 무시하게 되고
09:56
very tangible impacts
200
596843
1835
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
이런 영향을 줄이기 위해 오늘 할, 심지어는 어제 했어야 할
10:02
for reducing these impacts.
202
602723
1919
일들에 집중하지 못한다고 했습니다.
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
네, AI 발전이 빠르긴 하지만 아직 끝난 게 아니에요.
10:08
We're building the road as we walk it,
204
608771
2503
우리는 걸으면서 길을 만들고
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
어디로 함께 나아갈지 같이 결정할 수 있습니다.
감사합니다.
10:15
Thank you.
206
615069
1210
(박수)
10:16
(Applause)
207
616279
2002
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7