아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jihoo Cha
검토: Jihyeon J. Kim
00:04
I want to tell you a story
0
4543
1835
인공지능과 농부들에 대한
00:06
about artificial intelligence and farmers.
1
6419
4171
이야기를 들려드리고자 합니다.
00:10
Now, what a strange combination, right?
2
10966
3044
정말 이상한 조합이죠?
00:14
Two topics could not sound
more different from each other.
3
14010
4088
이 두 가지 주제는 서로
관련이 없어 보입니다.
00:18
But did you know that modern farming
actually involves a lot of technology?
4
18431
5047
하지만 현대 농업에는 실제로 많은
기술이 필요하다는 사실을 알고 계셨나요?
00:23
So computer vision is used
to predict crop yields.
5
23478
3796
컴퓨터 비전은 농작물
수확량을 예측하는 데 사용됩니다.
00:27
And artificial intelligence
is used to find,
6
27315
2836
그리고 인공 지능은 곤충을 찾고,
00:30
identify and get rid of insects.
7
30151
2878
식별하고, 없애는 데 사용됩니다.
00:33
Predictive analytics helps figure out
extreme weather conditions
8
33071
4129
예측 분석은 가뭄이나 허리케인과
00:37
like drought or hurricanes.
9
37242
1960
같은 극한의 기상 조건을
파악하는 데 도움이 됩니다.
00:39
But this technology
is also alienating to farmers.
10
39744
4547
하지만 이 기술은
농부들에게도 소외감을 안겨주죠.
00:44
And this all came to a head in 2017
11
44291
3003
2017년, 트랙터 회사인 죤 디어가
00:47
with the tractor company John Deere
when they introduced smart tractors.
12
47335
4922
스마트 트랙터를 출시하면서
이 모든 것이 극에 달했습니다.
00:52
So before then,
if a farmer's tractor broke,
13
52299
2961
이 이전에는 농부의 트랙터가 고장나면
00:55
they could just repair it themselves
or take it to a mechanic.
14
55302
3920
직접 수리하거나 정비사에게
가져갈 수 있었죠.
00:59
Well, the company actually made it illegal
15
59222
2961
글쎄요, 회사는 농부들이
직접 장비를 고치는 것을 사실상
01:02
for farmers to fix their own equipment.
16
62225
2586
불법으로 규정했어요.
01:04
You had to use a licensed technician
17
64811
2836
면허를 받은 기술자를 고용해야만 했고
01:07
and farmers would have to wait for weeks
18
67689
2628
농부들은 농작물이 썩고 해충이
01:10
while their crops rot and pests took over.
19
70317
3044
기승을 부릴 때까지
몇 주를 기다려야 했습니다.
01:14
So they took matters into their own hands.
20
74279
3170
그래서 그들은 문제를 직접 해결했죠.
01:17
Some of them learned to program,
21
77490
1544
그들 중 몇몇은 프로그래밍을 배웠고,
01:19
and they worked with hackers to create
patches to repair their own systems.
22
79075
4922
해커들과 함께 자신들의 시스템을
고칠 수 있는 패치를 만들었습니다.
01:23
In 2022,
23
83997
1418
2022년, 세계에서 가장 큰
해커 컨퍼런스 중 하나인 DEFCON에서
01:25
at one of the largest hacker
conferences in the world, DEFCON,
24
85457
3712
Sick Codes라는 해커와 그
의 팀은 존 디어 트랙터에
01:29
a hacker named Sick Codes and his team
25
89210
2586
침입하는 방법을 모두에게 보여줬습니다.
01:31
showed everybody how to break
into a John Deere tractor,
26
91838
3212
이는 기술이 취약하다는
사실 뿐만 아니라
01:35
showing that, first of all,
the technology was vulnerable,
27
95091
3629
당신이 당신만의 장비를
소유할 수 있으며
01:38
but also that you can and should
own your own equipment.
28
98762
4337
소유해야만 한다는 것을 나타냈죠.
01:43
To be clear, this is illegal,
29
103683
2836
분명히 말씀드리자면,
이것은 불법임에도 불구하고
01:46
but there are people
trying to change that.
30
106561
2795
이것을 바꾸려는 사람들이 있습니다.
01:49
Now that movement is called
the “right to repair.”
31
109689
3796
그리고 이 운동은
“수리할 권리”라고 불립니다.
01:53
The right to repair
goes something like this.
32
113526
2169
수리할 권리란 다음과 같습니다.
01:55
If you own a piece of technology,
33
115737
1668
당신이 기술을 소유하고 있다면
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
이는 트랙터, 스마트 칫솔,
01:59
a washing machine,
35
119991
1377
세탁기 등이 될 수 있습니다.
02:01
you should have the right
to repair it if it breaks.
36
121368
3086
그리고 이들이 고장났다면
수리할 권리가 있어야 하죠.
02:05
So why am I telling you this story?
37
125246
2253
그럼 제가 왜 이런 이야기를
하는 걸까요?
02:08
The right to repair needs to extend
to artificial intelligence.
38
128541
5214
수리 권리는 인공
지능에까지 확대되어야 합니다.
02:14
Now it seems like every week
39
134214
2127
AI산업은 매주 새롭고 놀라운
02:16
there is a new and mind-blowing
innovation in AI.
40
136383
3336
혁신이 펼쳐지는 곳처럼 보입니다.
02:19
But did you know that public confidence
is actually declining?
41
139719
4880
하지만 대중의 신뢰도가 실제로 떨어지고
있다는 사실을 알고 계셨나요?
02:24
A recent Pew poll showed
that more Americans are concerned
42
144599
4963
최근 Pew 여론 조사에
따르면 기술에 대해 기대하는 것보다
02:29
than they are excited
about the technology.
43
149604
2503
우려하는 미국인이
더 많은 것으로 나타났습니다.
02:32
This is echoed throughout the world.
44
152148
2211
이는 전 세계에서도
울려 퍼지고 있습니다.
02:34
The World Risk Poll shows
45
154401
1418
World Risk Poll에 따르면
02:35
that respondents from Central
and South America and Africa
46
155860
3462
중남미, 아프리카의 응답자들은
02:39
all said that they felt AI would lead
to more harm than good for their people.
47
159322
6090
모두 AI가 국민에게 득보다 실이
더 많을 것이라고 생각한다고 답했습니다.
02:46
As a social scientist and an AI developer,
48
166287
2503
사회과학자이자 AI 개발자인 저에게는
02:48
this frustrates me.
49
168790
1585
이 점이 좌절감을 안겨줍니다.
02:50
I'm a tech optimist
50
170417
1293
저는 기술 낙관론자입니다.
02:51
because I truly believe
this technology can lead to good.
51
171751
4338
왜냐하면 저는 이 기술이 좋은 결과를
가져올 수 있다고 진심으로 믿기 때문입니다.
02:56
So what's the disconnect?
52
176464
1919
그렇다면 무엇이 단점일까요?
02:58
Well, I've talked to hundreds
of people over the last few years.
53
178758
3754
글쎄요, 저는 지난 몇 년 동안
수백 명의 사람들과 이야기를 나눴어요.
03:02
Architects and scientists,
journalists and photographers,
54
182554
3670
건축가와 과학자,
저널리스트와 사진작가,
03:06
ride-share drivers and doctors,
55
186224
1710
공유 차량 운전자와 의사가
03:07
and they all say the same thing.
56
187976
2961
모두 같은 말을 합니다.
03:12
People feel like an afterthought.
57
192272
3795
사람들은 모두 나중에 하고 싶어해요.
03:17
They all know that their data is harvested
often without their permission
58
197485
4338
사람들은 모두 자신의 데이터가
정교한 시스템을 만들 때
03:21
to create these sophisticated systems.
59
201823
2461
허락없이 수집되는 경우가
많다는 것을 알고 있습니다.
03:24
They know that these systems
are determining their life opportunities.
60
204325
4171
그들은 이러한 시스템이 삶의 기회를
결정한다는 것을 알고 있습니다.
03:28
They also know that nobody
ever bothered to ask them
61
208496
3545
하지만 그 누구도 시스템을
어떻게 구축해야 하는지는
03:32
how the system should be built,
62
212083
1502
물어보지 않는다는 것도 알고 있습니다.
03:33
and they certainly have no idea
where to go if something goes wrong.
63
213585
5964
그리고 문제가 생기면
어디로 가야 할지도 전혀 모르고 있죠.
03:40
We may not own AI systems,
64
220383
2336
우리가 AI 시스템을 소유하고 있지
않을 수도 있지만
03:42
but they are slowly dominating our lives.
65
222761
2794
AI는 서서히 우리 삶을
지배하고 있습니다.
03:45
We need a better feedback loop
66
225597
1501
우리에겐 이러한 시스템을
만드는 사람들과
03:47
between the people
who are making these systems,
67
227140
2961
이러한 AI 시스템이
우리의 세계 안에서
03:50
and the people who are best
determined to tell us
68
230101
3337
어떻게 상호작용해야하는지
가장 잘 알려줄 수 있는 사람들
03:53
how these AI systems
should interact in their world.
69
233480
3628
사이에 더 나은 피드백 루프가
필요합니다.
03:57
One step towards this
is a process called red teaming.
70
237609
3837
이를 위한 한 걸음은 레드 팀
구성 (red teaming) 이라는 프로세스입니다.
04:01
Now, red teaming is a practice
that was started in the military,
71
241821
3003
레드 팀 구성은 군대에서
시작된 관행으로
04:04
and it's used in cybersecurity.
72
244866
1919
사이버 보안에 사용되고 있습니다.
04:06
In a traditional red-teaming exercise,
73
246826
2628
기존의 레드팀 구성 방식에서는
04:09
external experts are brought in
to break into a system,
74
249454
3920
외부 전문가를 초빙하여
시스템에 침입합니다.
04:13
sort of like what Sick Codes did
with tractors, but legal.
75
253374
4338
Sick Codes가 트랙터로 했던 것과
비슷하지만 합법적이죠.
04:17
So red teaming acts as a way
of testing your defenses
76
257712
3670
따라서 레드 팀 구성은
방어 체계를 테스트하는
04:21
and when you can figure out
where something will go wrong,
77
261424
3545
하나의 수단으로 작용하며,
어디서 문제가 발생할지
04:25
you can figure out how to fix it.
78
265011
3003
파악할 수 있을 때 이를 고칠
방법을 찾아낼 수 있습니다.
04:28
But when AI systems go rogue,
79
268056
2377
하지만 AI 시스템이 무용지물이 된다면
04:30
it's more than just a hacker breaking in.
80
270433
2920
이는 단순히 해커가 침입하는 것을
넘어서게 됩니다.
04:33
The model could malfunction
or misrepresent reality.
81
273394
3754
이 모델은 오작동을 일으키거나
현실을 잘못 표현할 수 있습니다.
04:37
So, for example, not too long ago,
82
277190
2044
예를 들어, 얼마 전까지만 해도 우린
04:39
we saw an AI system attempting diversity
83
279234
2627
AI 시스템이 과거에는
정확하지 않은 사진을 보여줌으로써
04:41
by showing historically inaccurate photos.
84
281903
3503
다양성을 시도하는 것을
볼 수 있었습니다.
04:45
Anybody with a basic
understanding of Western history
85
285406
2670
서양 역사에 대한 기본적인
이해가 있는 사람이라면
04:48
could have told you
that neither the Founding Fathers
86
288076
2502
누구나 건국의 아버지나
나치 시대 군인 모두
04:50
nor Nazi-era soldiers
would have been Black.
87
290620
2169
흑인이 아니었을 것이라고
말할 수 있었을 것입니다.
04:54
In that case, who qualifies as an expert?
88
294123
3629
그렇다면 전문가가 될
자격이 있는 사람은 누구일까요?
04:58
You.
89
298670
1168
바로 당신입니다.
05:00
I'm working with thousands of people
all around the world
90
300380
2836
저는 전 세계 수천 명의 사람들과 함께
05:03
on large and small red-teaming exercises,
91
303258
2252
크고 작은 팀 구성 연습을
하고 있으며,
05:05
and through them we found
and fixed mistakes in AI models.
92
305552
4629
이를 통해 AI 모델의 실수를
발견하고 수정했습니다.
05:10
We also work with some of the biggest
tech companies in the world:
93
310181
3587
우리는 또한 OpenAI, Meta,
Anthropic, Google과 같은
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
세계 최대의 기술 회사들과도
협력하고 있습니다.
05:16
And through this, we've made models
work better for more people.
95
316604
4630
이를 통해 우리는 모델이 더 많은
사람들에게 더 잘 작동하도록 만들었습니다.
05:22
Here's a bit of what we've learned.
96
322277
2168
우리가 알게 된 몇 가지 내용은
다음과 같습니다.
05:24
We partnered with the Royal Society
in London to do a scientific,
97
324988
3670
우리는 런던의 왕립 학회와 협력하여
질병 과학자들과 함께
05:28
mis- and disinformation event
with disease scientists.
98
328658
3545
과학적으로 잘못된 정보
및 허위 정보 이벤트를 열었습니다 .
05:32
What these scientists found
99
332203
1335
이 과학자들은
05:33
is that AI models actually had
a lot of protections
100
333580
2794
AI 모델이 실제로 COVID의
잘못된 정보로부터
05:36
against COVID misinformation.
101
336416
2294
많은 보호 기능을 제공했음을
발견했습니다.
05:38
But for other diseases like measles,
mumps and the flu,
102
338751
3546
하지만 홍역, 유행성 이하선염,
독감과 같은 다른 질병에는
05:42
the same protections didn't apply.
103
342297
2460
동일한 보호 조치가
적용되지 않았습니다.
05:44
We reported these changes,
104
344757
1293
우리는 이러한 변화를
보고했고, 수정했으며,
05:46
they’re fixed and now
we are all better protected
105
346050
3170
이제 과학적인 오해와 허위 정보로부터
05:49
against scientific mis-
and disinformation.
106
349220
2670
우리 모두를 더 잘 보호할 수
있게 되었습니다.
05:52
We did a really similar exercise
with architects at Autodesk University,
107
352724
4838
Autodesk University의 건축가들과
정말 비슷한 실험을 하였고,
05:57
and we asked them a simple question:
108
357562
1877
그들에게 간단한 질문을 했습니다.
05:59
Will AI put them out of a job?
109
359439
2961
“AI가 그들을 직장에서 쫓아낼까요?”
06:02
Or more specifically,
110
362442
2169
좀 더 구체적으로 말하자면,
06:04
could they imagine a modern AI system
111
364611
2043
“현대 미술관의 사양을 설계할 수 있는
06:06
that would be able to design the specs
of a modern art museum?
112
366696
3670
현대식 AI 시스템을
상상할 수 있을까요?”
06:10
The answer, resoundingly, was no.
113
370408
3962
답은 단연코 ‘아니요’ 였습니다.
06:14
Here's why, architects do more
than just draw buildings.
114
374787
3629
건축가들이 단순히 건물을 그리는 것
이상의 일을 하는 이유가 바로 여기에 있습니다.
06:18
They have to understand physics
and material science.
115
378458
3336
학생들은 물리학과
재료 과학을 이해해야 합니다.
06:21
They have to know building codes,
116
381836
1585
건축 법규를 알아야 하고,
06:23
and they have to do that
117
383463
1251
감정을 불러일으키는 무언가를 만들면서
06:24
while making something
that evokes emotion.
118
384756
2794
이를 숙지해야 합니다.
06:28
What the architects wanted
was an AI system
119
388426
2169
건축가들이 원했던 것은
06:30
that interacted with them,
that would give them feedback,
120
390595
2753
그들과 상호작용하여
피드백을 주고 사전에
06:33
maybe proactively offer
design recommendations.
121
393389
2753
설계 권장 사항을 제시할 수 있는
AI 시스템이었습니다.
06:36
And today's AI systems,
not quite there yet.
122
396142
3670
그리고 오늘날의 AI 시스템은
아직 완성되지 않았습니다.
06:39
But those are technical problems.
123
399854
1752
하지만 이건 기술적인 문제입니다.
06:41
People building AI are incredibly smart,
124
401648
2043
AI를 만드는 사람들은
놀라울 정도로 똑똑합니다.
06:43
and maybe they could solve
all that in a few years.
125
403733
2753
어쩌면 몇 년 안에 이 모든 것을
해결할 수 있을지도 모르지요.
06:46
But that wasn't their biggest concern.
126
406527
1961
하지만 그게 그들의 가장 큰
관심사는 아니었어요.
06:48
Their biggest concern was trust.
127
408529
2795
그들의 가장 큰 관심사는 신뢰였습니다.
06:51
Now architects are liable if something
goes wrong with their buildings.
128
411991
4546
이제 건축가는 건물에
문제가 생기면 책임을 져야 합니다.
06:56
They could lose their license,
129
416537
1669
면허를 잃을 수도 있고,
벌금이 부과될 수도 있으며
06:58
they could be fined,
they could even go to prison.
130
418206
3211
심지어 감옥에 갈 수도 있습니다.
07:01
And failures can happen
in a million different ways.
131
421459
3086
실패는 백만 가지 방식으로
일어날 수 있습니다.
07:04
For example, exit doors
that open the wrong way,
132
424545
3045
예를 들어 비상구가 잘못 열려서
07:07
leading to people being crushed
in an evacuation crisis,
133
427632
4296
열려서 사람들이 대피 위기에 처하거나,
07:11
or broken glass raining down
onto pedestrians in the street
134
431928
4129
길거리에서 바람이 너무
세게 불어 창문이 부서져
07:16
because the wind blows too hard
and shatters windows.
135
436099
3837
깨진 유리가 보행자에게
쏟아지는 경우가 이에 해당합니다.
07:20
So why would an architect trust
an AI system with their job,
136
440311
3921
그렇다면 왜 건축가는
실수를 찾아냈을 때
07:24
with their literal freedom,
137
444273
2670
직접 들어가 고칠 수 없음에도 불구하고
07:26
if they couldn't go in
and fix a mistake if they found it?
138
446943
3628
AI시스템을 자신의 업무와
자유로움으로 신뢰할까요?
07:31
So we need to figure out these problems
today, and I'll tell you why.
139
451030
4171
우리는 오늘 이 문제들을 알아내야 합니다.
그 이유를 말씀드리겠습니다.
07:35
The next wave of artificial intelligence
systems, called agentic AI,
140
455201
5047
차세대 인공 지능 시스템인
에이전트 AI는
07:40
is a true tipping point
141
460289
1335
인간의 주체성을 유지할지,
07:41
between whether or not
we retain human agency,
142
461624
4213
아니면 AI 시스템이 대신
결정을 내릴지
07:45
or whether or not AI systems
make our decisions for us.
143
465837
3795
여부를 가르는 진정한 전환점입니다.
07:50
Imagine an AI agent as kind of
like a personal assistant.
144
470008
3211
AI 에이전트가 일종의
개인 비서라고 상상해 보세요.
07:53
So, for example,
a medical agent might determine
145
473261
3712
예를 들어, 의료 상담원은 가족에게
07:57
whether or not your family needs
doctor's appointments,
146
477015
2585
진료 예약이 필요한지
여부를 결정하거나,
07:59
it might refill prescription medications,
or in case of an emergency,
147
479642
3379
처방약을 보충하거나,
응급 상황이 발생했을 때에는
08:03
send medical records to the hospital.
148
483062
2586
의료 기록을 병원에 보낼 수 있습니다.
08:05
But AI agents can't and won't exist
149
485690
2836
하지만 우리에게 진정한
수리 권리가 없다면
08:08
unless we have a true right to repair.
150
488568
2210
AI 에이전트는 존재할 수 없으며
앞으로도 존재하지 않을 것입니다.
08:10
What parent would trust
their child's health to an AI system
151
490820
4922
AI가 기본적인 진단도 할 수 없다면
08:15
unless you could run
some basic diagnostics?
152
495783
2795
어떤 부모가 아이의 건강을
AI 시스템에 맡길까요?
08:18
What professional would trust
an AI system with job decisions,
153
498619
4213
또, 주니어 직원처럼
AI 시스템을 재교육할 수 없다면
08:22
unless you could retrain it
the way you might a junior employee?
154
502874
4296
어떤 전문가가 직무 결정을 내릴 때
AI 시스템을 신뢰할까요?
08:28
Now, a right to repair
might look something like this.
155
508129
2878
수리 권리는 이런 방식으로
나타날 수 있습니다.
08:31
You could have a diagnostics board
156
511007
2210
당신은 직접 설계한 기본 테스트를
08:33
where you run basic tests that you design,
157
513259
3003
실행하는 진단 보드를
사용할 수 있습니다.
08:36
and if something's wrong,
you could report it to the company
158
516304
2836
문제가 발생하면 회사에 보고하고
08:39
and hear back when it's fixed.
159
519140
1585
문제가 해결되면 답변을
들을 수 있습니다.
08:40
Or you could work with third parties
like ethical hackers
160
520725
3128
아니면 오늘날 우리처럼
시스템용 패치를 만드는
08:43
who make patches for systems
like we do today.
161
523895
2586
윤리적 해커와 같은 제3자와
협력할 수도 있습니다.
08:46
You can download them and use them
to improve your system
162
526481
2711
패치를 다운로드하여
시스템을 원하는 방식으로
08:49
the way you want it to be improved.
163
529233
1919
개선하는 데 사용할 수 있습니다.
08:51
Or you could be like these intrepid
farmers and learn to program
164
531194
3628
아니면 용감한 농부들처럼
자신만의 시스템을
08:54
and fine-tune your own systems.
165
534864
3003
프로그래밍하고 미세 조정하는 법을
배울 수도 있겠죠.
08:58
We won't achieve the promised benefits
of artificial intelligence
166
538618
4171
사람들을 개발 프로세스에 참여시키는
방법을 알아내지 못하면
09:02
unless we figure out how to bring people
into the development process.
167
542789
5046
약속했던 인공 지능의 이점을
얻을 수 없을 것입니다.
09:08
I've dedicated my career
to responsible AI,
168
548377
3504
저는 책임감 있는 AI에
제 경력을 바쳤는데,
09:11
and in that field we ask the question,
169
551923
3253
그 분야에서 우리는
“사람들이 AI를 신뢰할 수 있으려면
09:15
what can companies build
to ensure that people trust AI?
170
555218
4963
기업은 무엇을 구축해야 하는가“ 라는
질문을 던집니다.
09:20
Now, through these red-teaming exercises,
and by talking to you,
171
560723
3837
이러한 팀원 구성 연습을 통해,
그리고 여러분과 이야기를 나누면서
09:24
I've come to realize that we've been
asking the wrong question all along.
172
564602
5339
우리는 줄곧 잘못된 질문을
해왔다는 것을 깨닫게 되었습니다.
09:30
What we should have been asking
is what tools can we build
173
570566
3921
우리가 물었어야 할 것은
“사람들이 AI를 유용하게
09:34
so people can make AI beneficial for them?
174
574529
4045
활용할 수 있도록 어떤 도구를
만들 수 있는가” 입니다.
09:39
Technologists can't do it alone.
175
579117
2460
기술자 혼자서는 할 수 없습니다.
09:41
We can only do it with you.
176
581619
2419
오직 여러분만이 할 수 있습니다.
09:44
Thank you.
177
584080
1168
감사합니다.
09:45
(Applause)
178
585248
2794
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.