How close are we to uploading our minds? - Michael S.A. Graziano

539,741 views ・ 2019-10-28

TED-Ed


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Seona Cho 검토: Jihyeon J. Kim
00:07
Imagine a future where nobody dies—
0
7063
2880
아무도 죽지 않는 미래를 상상해 봅시다.
00:09
instead, our minds are uploaded to a digital world.
1
9943
4000
대신에, 우리의 생각들은 디지털 세상에 업로드됩니다.
00:13
They might live on in a realistic, simulated environment with avatar bodies,
2
13943
4530
이들은 아바타의 신체를 가진 현실적인 환경에서 사용될지도 모르고
00:18
and could still call in and contribute to the biological world.
3
18473
4680
이를 불러와 여전히 생물학적 세상에 기여할 수 있을지도 모릅니다.
00:23
Mind uploading has powerful appeal—
4
23153
3091
마인드 업로딩은 큰 매력을 가지고 있지만
00:26
but what would it actually take to scan a person’s brain and upload their mind?
5
26244
5430
사람의 뇌를 스캔하고 생각을 업로드하려면 정말 무엇이 필요할까요?
00:31
The main challenges are scanning a brain in enough detail to capture the mind
6
31674
4552
주요 도전 과제는 사람의 뇌를 충분히 세세하게 스캔하고
00:36
and perfectly recreating that detail artificially.
7
36226
4408
세부 내용을 인공적으로 완벽하게 다시 만들어내는 것입니다.
00:40
But first, we have to know what to scan.
8
40634
2680
그러나 먼저, 우리는 무엇을 스캔해야 할지 알아야 합니다.
00:43
The human brain contains about 86 billion neurons,
9
43314
3370
사람의 뇌는 860억 개의 뉴런을 지니고 있고
00:46
connected by at least a hundred trillion synapses.
10
46684
3630
이는 적어도 100만조 개의 시냅스로 연결되어 있습니다.
00:50
The pattern of connectivity among the brain’s neurons,
11
50314
3070
뇌의 뉴련의 연결 패턴은,
00:53
that is, all of the neurons and all their connections to each other,
12
53384
4120
즉, 모든 뉴런들의 상호 간 연결 관계는
00:57
is called the connectome.
13
57504
2199
커넥톰이라고 불립니다.
00:59
We haven’t yet mapped the connectome,
14
59703
2210
우리는 아직 커넥톰의 지도를 만들지 못했고,
01:01
and there’s also a lot more to neural signaling.
15
61913
3020
아직 수많은 신경 신호들도 남아 있습니다.
01:04
There are hundreds, possibly thousands of different kinds of connections,
16
64933
3730
뇌에는 수백, 어쩌면 수천 개의 연결 관계,
01:08
or synapses.
17
68663
1600
또는 시냅스가 존재합니다.
01:10
Each functions in a slightly different way.
18
70263
2640
각각의 기능은 조금씩 다른데,
01:12
Some work faster, some slower.
19
72903
2040
어떤 것은 빠르게, 어떤 것은 느리게 일합니다.
01:14
Some grow or shrink rapidly in the process of learning;
20
74943
3770
어떤 것은 배우는 과정에서 빠르게 자라거나 수축하는 반면
01:18
some are more stable over time.
21
78713
2190
어떤 것들은 시간이 지나면서 더 안정해집니다.
01:20
And beyond the trillions of precise, 1-to-1 connections between neurons,
22
80903
4690
1조 개의 뉴런 간의 정확한 1대 1 연결을 넘어서서
01:25
some neurons also spray out neurotransmitters
23
85593
3363
몇몇 뉴런은 다른 뉴런들에 한번에 영향을 미치는
01:28
that affect many other neurons at once.
24
88956
2770
신경전달물질을 분비하기도 합니다.
01:31
All of these different kinds of interactions
25
91726
2240
이러한 다른 종류의 상호작용은
01:33
would need to be mapped in order to copy a person’s mind.
26
93966
3910
사람의 생각을 복사하기 위해서 지도로 만들어져야 합니다.
01:37
There are also a lot of influences on neural signaling
27
97876
2990
또한 신경 신호에 미치는 여러 원인들이
01:40
that are poorly understood or undiscovered.
28
100866
3340
아직 잘 이해되지 못하거나 발견되지 못한 채로 남아있습니다.
01:44
To name just one example,
29
104206
1570
하나의 예를 들자면,
01:45
patterns of activity between neurons
30
105776
2310
뉴런 사이의 행동 패턴은
01:48
are likely influenced by a type of cell called glia.
31
108086
4070
신경아교세포에 의해 영향을 받기 쉬운 것으로 추측됩니다.
01:52
Glia surround neurons and, according to some scientists,
32
112156
3697
몇몇 과학자들에 의하면 신경아교세포를 둘러싼 뉴런들의 수는
01:55
may even outnumber them by as many as ten to one.
33
115853
3650
열 개를 훨씬 뛰어넘을 수도 있다고 합니다.
01:59
Glia were once thought to be purely for structural support,
34
119503
3630
신경아교세포는 구조적인 지지만을 위한 세포로 알려져 있었고
02:03
and their functions are still poorly understood,
35
123133
2850
그들의 기능은 잘 알려지지 않았으나,
02:05
but at least some of them can generate their own signals
36
125983
3150
적어도 몇몇의 세포들은 그들의 고유한 신호를 만들어
02:09
that influence information processing.
37
129133
2620
정보 처리에 영향을 줄 수 있습니다.
02:11
Our understanding of the brain isn’t good enough to determine
38
131753
3140
뇌에 대해 잘 이해하지 못하고 있다는 것은
02:14
what we’d need to scan in order to replicate the mind,
39
134893
3040
생각을 복사하기 위해 뇌의 어느 부분을 스캔해야 하는지 정하기 어렵게 합니다.
02:17
but assuming our knowledge does advance to that point,
40
137933
3010
그러나 우리의 지식 수준이 충분해진다면,
02:20
how would we scan it?
41
140943
1430
우리는 어떻게 뇌를 스캔해야 할까요?
02:22
Currently, we can accurately scan a living human brain
42
142373
3490
현재, 우리는 살아있는 사람의 뇌를
02:25
with resolutions of about half a millimeter
43
145863
2560
약 0.5 밀리미터의 해상도로
02:28
using our best non-invasive scanning method, MRI.
44
148423
3820
최고의 비외과적 수단인 MRI를 사용해 정확하게 스캔할 수 있습니다.
02:32
To detect a synapse, we’ll need to scan at a resolution of about a micron—
45
152243
5490
시냅스를 감지하기 위해서는 우리는 거의 마이크로 단위의 해상도로,
02:37
a thousandth of a millimeter.
46
157733
1960
즉 밀리미터의 1000분의 1 만큼으로의 해상도로 스캔해야 합니다.
02:39
To distinguish the kind of synapse and precisely how strong each synapse is,
47
159693
5000
시냅스를 식별하고 각 시냅스가 얼마나 활동적인지 확인하기 위해서는
02:44
we’ll need even better resolution.
48
164693
2381
보다 나은 해상도가 필요합니다.
02:47
MRI depends on powerful magnetic fields.
49
167074
2970
강한 자기장에 의존하는 MRI의 특성상,
02:50
Scanning at the resolution required
50
170044
1880
특정 해상도를 사용하여, 즉
02:51
to determine the details of individual synapses
51
171924
3190
각 시냅스의 특징을 확인하기 위한 해상도로 스캔하려면
02:55
would requires a field strength high enough to cook a person’s tissues.
52
175114
4620
사람의 조직을 태울 만한 정도의 매우 강한 자기장이 필요합니다.
02:59
So this kind of leap in resolution
53
179734
2032
따라서 이러한 해상도의 문제에는
03:01
would require fundamentally new scanning technology.
54
181766
3290
근본적으로 새로은 스캔 기술이 필요합니다.
03:05
It would be more feasible to scan a dead brain using an electron microscope,
55
185056
4580
죽은 뇌를 전자 현미경으로 스캔하는 것은 보다 실현 가능하겠지만,
03:09
but even that technology is nowhere near good enough–
56
189636
3600
이러한 기술마저도 충분하지 않을 뿐더러
03:13
and requires killing the subject first.
57
193236
3290
먼저 대상을 죽여야 할 필요가 있습니다.
03:16
Assuming we eventually understand the brain well enough to know what to scan
58
196526
4150
우리가 무엇을 스캔해야 할지 알 수 있을 만큼 뇌를 이해하게 되고
03:20
and develop the technology to safely scan at that resolution,
59
200676
3450
좋은 해상도로 안전하게 스캔할 수 있는 기술을 만들었다고 가정하면,
03:24
the next challenge would be to recreate that information digitally.
60
204126
4410
다음 목표는 그 정보를 디지털화시키는 것입니다.
03:28
The main obstacles to doing so are computing power and storage space,
61
208536
4730
가장 큰 어려움은 컴퓨팅 능력과 저장 공간이지만,
03:33
both of which are improving every year.
62
213266
2498
이들은 매년 발전하고 있습니다.
03:35
We’re actually much closer to attaining this technological capacity
63
215764
3760
사실 우리에게는 생각을 스캔하는 데 필요한 기술적인 능력을 얻는 것이
03:39
than we are to understanding or scanning our own minds.
64
219524
4270
생각을 이해하거나 스캔하는 것보다 더 가까이 있습니다.
03:43
Artificial neural networks already run our internet search engines,
65
223794
4040
인공 신경망은 인터넷 검색 엔진이나
03:47
digital assistants, self-driving cars, Wall Street trading algorithms,
66
227834
4584
디지털 단말기, 자율 주행 자동차, 월 스트리트의 거래 알고리즘,
03:52
and smart phones.
67
232418
1374
스마트폰에 이미 사용되고 있습니다.
03:53
Nobody has yet built an artificial network with 86 billion neurons,
68
233792
4110
아무도 860만 개의 뉴런에 대한 인공 신경망을 만들지는 않았지만
03:57
but as computing technology improves,
69
237902
2430
컴퓨팅 기술이 발전함에 따라
04:00
it may be possible to keep track of such massive data sets.
70
240332
4380
이런 큰 데이터들을 추적하는 것이 가능할지도 모릅니다.
04:04
At every step in the scanning and uploading process,
71
244712
3458
스캔과 업로드의 모든 과정에서
04:08
we’d have to be certain we were capturing all the necessary information accurately—
72
248170
4670
우리는 모든 필요한 정보들을 정확하게 수집하고 있는지 확신할 수 있어야 합니다.
04:12
or there’s no telling what ruined version of a mind might emerge.
73
252840
5457
왜곡된 생각이 아무도 모르게 만들어질 수도 있으니까요.
04:18
While mind uploading is theoretically possible,
74
258297
2786
마인드 업로딩이 이론적으로는 가능한 한편
04:21
we’re likely hundreds of years away
75
261083
1850
우리는 이를 현실화할 수 있을 만한
04:22
from the technology and scientific understanding
76
262933
2890
기술과 과학적 이해로부터
04:25
that would make it a reality.
77
265823
1450
수백 년 정도 떨어져 있을지도 모릅니다.
04:27
And that reality would come with ethical and philosophical considerations:
78
267273
4250
만약 현실이 되어도 윤리적, 철학적으로 고려해야 할 것들이 생길 것입니다.
04:31
who would have access to mind uploading?
79
271523
2810
누가 업로드된 생각에 접근할 수 있어야 하는가?
04:34
What rights would be accorded to uploaded minds?
80
274333
2880
업로드된 생각에는 어떤 권리가 부여될 것인가?
04:37
How could this technology be abused?
81
277213
2760
기술이 어떻게 남용될 수 있을까?
04:39
Even if we can eventually upload our minds,
82
279636
2800
우리가 결국 생각을 업로드할 수 있게 된다고 해도,
04:42
whether we should remains an open question.
83
282436
3110
이것은 아직 풀리지 않은 문제입니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7