아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: KATE KANG
검토: DK Kim
00:04
My wildest dream is to design
artificial intelligence
0
4960
3086
친구 같은 인공 지능을 설계하는 것이
제 가장 원대한 꿈입니다.
00:08
that is our friend, you know.
1
8046
1793
00:10
If you have an AI system
that helps us understand mathematics,
2
10382
3378
만약 수학을 이해하도록 도와주는
인공 지능이 있다면,
00:13
you can solve the economy of the world.
3
13802
2085
세계 경제 문제를
해결할 수 있을 거예요.
00:15
If you have an AI system
that can understand humanitarian sciences,
4
15887
3629
인문 사회 과학을 이해할 수 있는
인공 지능이 있다면,
00:19
we can actually solve
all of our conflicts.
5
19516
2169
우리는 모든 갈등을
해결할 수 있을 것입니다.
00:21
I want this system to, given Einstein’s
and Maxwell’s equations,
6
21726
4004
저는 이 인공 지능이 아인슈타인과
맥스웰의 방정식을 들고서
00:25
take it and solve new physics, you know.
7
25730
2461
새로운 물리를
해결할 수 있기를 바랍니다.
00:28
If you understand physics,
you can solve the energy problem.
8
28650
3629
물리를 이해하면 에너지 문제를
해결할 수 있습니다.
00:32
So you can actually design ways for humans
9
32320
4296
그래서 인간이 스스로 더 나은 사람이
00:36
to be the better versions of themselves.
10
36616
3170
될 수 있는 방법을
설계할 수 있습니다.
00:39
I'm Ramin Hasani.
11
39828
1209
저는 라민 하사니이고 리퀴드 AI의
공동 설립자이자 CEO입니다.
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
00:44
Liquid AI is an AI company built
on top of a technology
13
44332
3796
리퀴드 AI는
제가 전에 MIT에서 발명한 기술을
바탕으로 만든 AI 회사입니다.
00:48
that I invented back at MIT.
14
48128
2210
00:50
It’s called “liquid neural networks.”
15
50380
2044
이 기술의 이름은
‘액체 신경망’입니다.
00:52
These are a form of flexible intelligence,
16
52424
2377
이는 유연한 지능의 일종인데,
00:54
as opposed to today's AI systems
that are fixed, basically.
17
54843
3420
기본적으로 고정된 오늘날의
AI 시스템과는 대조적입니다.
00:58
So think about your brain.
18
58263
1835
우리 두뇌를 생각해 보세요.
01:00
You can change your thoughts.
19
60849
1793
우리는 생각을 바꿀 수 있죠.
01:02
When somebody talks to you,
20
62684
1585
누군가가 우리에게 말을 걸 때
01:04
you can completely change
the way you respond.
21
64311
2711
우리는 반응하는 방식을
완전히 바꿀 수 있습니다.
우리 시스템에는 항상 피드백이라는
메커니즘이 있습니다.
01:07
You always have a mechanism
that we call feedback in your system.
22
67022
4087
01:11
So basically when you receive information
from someone as an input,
23
71109
4296
따라서 기본적으로 누군가로부터
정보를 입력으로 받으면
01:15
you basically process that information,
and then you reply.
24
75447
3003
기본적으로 해당 정보를
처리한 다음 회신합니다.
01:18
For liquid neural networks,
25
78450
1418
액체 신경망에는
01:19
we simply got those feedback mechanisms,
and we added that to the system.
26
79909
3921
그런 피드백 메커니즘을
시스템에 추가했을 뿐입니다.
01:23
So that means it has
the ability of thinking.
27
83872
2794
이 말은 사고력이 있다는 뜻이죠.
01:27
That property is inspired by nature.
28
87125
2461
이 특징은 자연에서 따왔습니다.
01:31
We looked into brains of animals
and, in particular,
29
91796
3254
우리는 동물의 뇌,
특히, 작은꼬마선충이라는
아주 작은 벌레를 연구했습니다.
01:35
a very, very tiny worm
called “C. elegans”
30
95050
3044
01:38
The fascinating fact
about the brain of the worm
31
98136
2586
이 벌레의 뇌에서 놀라운 사실은
01:40
is that it shares 75 percent
of the genome that it has with humans.
32
100722
4421
이 벌레의 유전자 중 75%를
인간과 공유한다는 것입니다.
01:45
We have the entire genome mapped.
33
105185
2043
우리는 전체 유전자 지도를
완성했습니다.
01:47
So we understand a whole lot
34
107812
1794
그래서 이 벌레의 신경계 기능도
아주 많이 알고 있습니다.
01:49
about the functionality
of its nervous system as well.
35
109648
3545
01:53
So if you understand the properties
of cells in the worm,
36
113693
4421
따라서 이 벌레에 있는
세포의 특성을 이해한다면
01:58
maybe we can build intelligent systems
that are as good as the worm
37
118156
5672
벌레 못지않은 지능형 시스템을 만들어
02:03
and then evolve them into systems
that are better than even humans.
38
123870
4463
인간보다 더 나은 시스템으로
발전시킬 수 있을 것입니다.
02:08
The reason why we are studying nature
is the fact that we can actually,
39
128792
3545
우리가 자연을 연구하는 이유는
우리가 설계할 수 있는
모든 종류의 알고리즘을 탐색해서
02:12
having a shortcut through exploring
all the possible kind of algorithms
40
132379
4129
지름길을 찾을 수 있기 때문입니다.
02:16
that you can design.
41
136549
1168
02:17
You can look into nature,
42
137759
1293
자연을 들여다보면 단축키를 얻어서
02:19
that would give you like, a shortcut
43
139052
1835
02:20
to really faster get
into efficient algorithms
44
140929
2335
효율적인 알고리즘을
더 빨리 찾을 수 있습니다.
02:23
because nature has done a lot of search,
45
143264
1961
자연은 수십억 년에 걸친 진화를 통해
수없이 탐색을 해왔으니까요.
02:25
billions of years of evolution, right?
46
145266
1877
02:27
So we learned so much
from those principles.
47
147143
2127
우리는 그 원리들에서
많은 것을 배웠습니다.
02:29
I just brought a tiny
principle from the worm
48
149312
3337
저는 그저 벌레에서 얻은 작은 원리를
02:32
into artificial neural networks.
49
152691
1543
인공 지능 신경망에 적용했습니다.
02:34
And now they are flexible,
50
154234
1251
이제 인공 지능은 유연해져서
02:35
and they can solve problems
in an explainable way
51
155485
2336
문제를 해결하고 나서
설명을 할 수 있습니다.
02:37
that was not possible before.
52
157821
1418
예전에는 불가능했었죠.
02:39
AI is becoming very capable, right?
53
159280
2253
AI가 매우 능력 있는
존재가 되고 있죠?
02:41
The reason why AI is hard to regulate
54
161574
2878
AI를 규제하기 어려운 이유는
02:44
is because we cannot understand,
even the people who design the systems,
55
164494
3879
시스템을 설계하는 사람들조차도
이해할 수 없기 때문입니다.
02:48
we don't understand those systems.
56
168415
1626
우리는 그 시스템을 이해하지 못합니다.
블랙박스죠.
02:50
They are black boxes.
57
170083
1376
02:52
With Liquid, because we are
fundamentally using mathematics
58
172210
4087
액체 신경망은 기본적으로
이해 가능한 수학을 사용하기 때문에,
02:56
that are understandable,
59
176339
1418
02:57
we have tools to really understand
60
177757
1627
우리는 시스템의 어느 부분이
무엇을 담당하는지
02:59
and pinpoint which part of the system
is responsible for what,
61
179426
4004
정확히 이해하고 찾아낼 수 있는
도구를 갖추고 있습니다.
03:03
you're designing white box systems.
62
183430
2043
화이트박스 시스템을 설계하는 거죠.
03:05
So if you have systems
that you can understand their behavior,
63
185473
2920
따라서 시스템의 동작을
이해할 수 있다면
03:08
that means even if you scale them
into something very, very intelligent,
64
188435
4004
시스템을 매우 지능적인 것으로
확장하더라도
03:12
you can always have a lot
of control over that system
65
192480
3212
항상 해당 시스템을
대부분 제어할 수 있습니다.
03:15
because you understand it.
66
195692
1418
우리가 시스템을 이해하니까요.
불량한 AI가 되도록
절대 놔두지 않을 겁니다.
03:17
You can never let it go rogue.
67
197110
2085
03:19
So all of the crises
we are dealing with right now,
68
199195
3087
우리가 지금 당면하고 있는
모든 위기는,
03:22
you know, doomsday kind of scenarios,
69
202323
1794
예컨대 종말 시나리오 같은 것은,
03:24
is all about scaling a technology
that we don't understand.
70
204159
3503
우리가 이해하지 못하는
기술을 확장하기 때문입니다.
03:27
With Liquid, our purpose
is to really calm people down
71
207704
3211
리퀴드에서 우리의 목적은
사람들을 진정시키고
03:30
and show people that, hey,
72
210957
1460
작동 메커니즘에 대한
통제력과 가시성이 높으면서도
03:32
you can have very powerful systems,
73
212459
2502
매우 강력한 시스템을
만들 수 있다는 것을
03:35
that you have a lot
of control and visibility
74
215003
2377
03:37
into their working mechanisms.
75
217422
2002
사람들에게 보여주는 것입니다.
03:39
The gift of having something
[with] superintelligence is massive,
76
219466
3378
초지능이 있는 무언가를 가질 때
얻을 수 있는 선물은 어마어마하고
03:42
and it can enable a lot of things for us.
77
222886
2544
초지능은 우리가 많은 것을
할 수 있게 해 줄 것입니다.
03:45
But at the same time,
78
225472
1126
하지만 동시에 우리는 이 기술을
통제할 수 있어야 합니다.
03:46
we need to have control
over that technology.
79
226639
2128
03:48
Because this is the first time
that we’re going to have a technology
80
228767
3211
왜냐하면 인류 전체를 합친 것보다
더 뛰어난 기술을
갖게 되는 것은 이번이 처음이니까요.
03:52
that is going to be better
than all of humanity combined.
81
232020
2711
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.