How AI Will Answer Questions We Haven’t Thought to Ask | Aravind Srinivas | TED

273,723 views ・ 2025-02-01

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Phina Park 검토: DK Kim
00:04
There are a couple of ways I'm not a traditional tech founder.
0
4468
3370
저는 몇 가지 점에서 종래 기술 창업자와는 다릅니다.
00:08
I never dropped out of college.
1
8906
1869
저는 대학을 중퇴하지 않았어요.
00:10
(Laughter)
2
10808
1435
(웃음)
00:13
In fact, I kept going.
3
13377
1468
사실 공부를 계속했습니다.
00:15
I'm an academic, you could say.
4
15913
1768
학자라고도 할 수 있고요.
00:18
And it’s OK to be proud that I have a PhD in AI from Berkeley,
5
18516
4738
그리고 AI 분야에서 박사 학위를 취득한 것에 자부심을 가져도 괜찮겠죠.
그것도 이곳 베이 지역에 있는 버클리에서 말이죠.
00:23
right here in the Bay Area.
6
23287
1468
00:25
(Applause)
7
25389
4204
(박수)
00:29
But there's something interesting in AI
8
29627
3170
그런데, 저는 AI 분야에서 특이한 점을 발견했습니다.
00:32
that I've noticed,
9
32830
1268
다른 분야의 기술 창립자들과 비교했을 때 말이죠.
00:34
compared to other tech founders.
10
34131
2136
00:36
Other stereotypes, at least.
11
36300
1769
최소한 전형적인 사례에서는요.
00:38
A lot of us hold PhDs.
12
38903
2702
많은 사람들이 박사 학위가 있습니다.
00:41
I mean, quite a lot.
13
41639
2302
상당히 많죠.
00:43
11 out of 24 speakers just at this conference
14
43974
3704
이번 강연회만 해도 연사 24명 중 11명이 박사 학위가 있고요,
00:47
have PhDs,
15
47711
1502
00:49
and over a third are assistant,
16
49246
2703
1/3 이상이 주요 대학의 조교수, 부교수 또는 정교수입니다.
00:51
associate or full professors with major universities.
17
51949
3270
00:56
Only time will tell
18
56420
1568
이런 현상이 새로운 추세인지는 시간이 지나야만 알 수 있습니다.
00:57
if this is a new trend of seeing academics in technology startups.
19
57988
4505
기술 스타트업에서 학자들을 마주하는 일 말이죠.
01:03
But I got pretty curious to find out if this is common or new.
20
63594
3604
그런데 이 현상이 흔했는지, 새롭게 나타났는지 궁금해졌습니다.
01:08
And it turns out this is somewhat new.
21
68599
1902
알고 보니 좀 새로운 현상이더군요.
01:11
Only over a year ago,
22
71502
1735
불과 1년 전의 연구 결과인데요.
01:13
researchers at the University of Maryland
23
73237
2703
메릴랜드 대학 연구원에 따르면,
01:15
found a 38 percent decline at the rate of startup formation
24
75973
4304
미국 박사 인력의 스타트업 창업이나 고용은
01:20
or share of employment by US PhDs over the past 20 years.
25
80277
4271
지난 20년 동안 38% 감소했습니다.
01:25
Yet our attendance here today
26
85449
2970
하지만 오늘 여러분의 참석률과
01:28
and the trend in AI technology broadly
27
88452
2636
AI 기술의 추세를 넓게 생각해 보면,
01:31
does not seem to correlate with this finding.
28
91122
2135
연구 결과와 현실 사이에 관계는 없어 보입니다.
01:33
As I said, only time and more data will tell.
29
93958
3837
말씀드렸듯이 시간이 흘러 자료가 더 많이 축적되면 알 수 있겠죠.
01:38
In the meantime, my curiosity led me to another question:
30
98996
4204
그러던 중 호기심에 또 다른 질문이 생겼습니다.
학자들이 창업한 대기업 중 가장 마지막에 설립된 곳은 어디일까요?
01:44
What was the last major technology company founded by academics?
31
104068
5238
01:50
Google.
32
110908
1268
구글입니다.
퍼플렉시티가 구글을 죽이려 한다는 비난을 많이 받는데요,
01:53
At Perplexity, we get accused of trying to kill Google a lot.
33
113010
4204
01:57
(Laughter)
34
117248
1268
(웃음)
01:58
But trust me, we're not really trying to kill things.
35
118549
3136
믿어주세요, 저희는 뭔가를 죽이려는 게 아니에요.
02:01
We are motivated about building things.
36
121719
2602
오히려 뭔가를 개발하겠다는 의욕이 가득합니다.
02:04
The cofounders of Google would probably say the same.
37
124321
3003
구글의 공동 창립자들도 아마 똑같이 말할 겁니다.
02:08
Let's hear from Larry Page.
38
128692
1902
2000년에 한 인터뷰에서 래리 페이지의 말을 들어볼게요.
02:10
An interview of his from the year 2000.
39
130628
2502
02:13
(Video) Larry Page: AI would be the ultimate version of Google.
40
133164
3403
래리 페이지: 인공 지능은 구글의 최종판이 될 겁니다.
02:16
So if we had the ultimate search engine, it would understand everything on the web.
41
136567
3904
궁극적인 검색 엔진으로 웹상의 모든 것을 이해할 수 있겠죠.
02:20
It would understand, you know,
42
140471
1835
여러분이 원하는 것을 검색 엔진이 정확히 파악해서
02:22
exactly what you wanted,
43
142339
2236
02:24
and it would give you the right thing.
44
144575
2035
올바른 결과를 제공할 거예요.
02:26
And that's obviously artificial intelligence.
45
146610
2770
그것이 바로 인공 지능입니다.
02:29
It would be able to answer any question, basically,
46
149413
2436
어떤 질문에도 답할 수 있을 거예요.
02:31
because almost everything is on the web, right?
47
151882
2202
거의 모든 것이 웹에 있으니까요.
02:35
Aravind Srinivas: Think about that.
48
155553
1701
아라빈드 스리니바스: 생각해 보세요.
2000년의 인공 지능.
02:37
Artificial intelligence
49
157254
1835
02:39
in the year 2000.
50
159123
1701
02:40
I was only six back then.
51
160824
1535
당시 저는 겨우 여섯 살이었죠.
02:42
(Laughter)
52
162993
1535
(웃음)
02:44
There are a few things interesting about this interview.
53
164528
3337
이 인터뷰에는 몇 가지 흥미로운 점이 있어요.
02:47
One, Larry did accurately predict the future of search
54
167865
4104
첫째, 래리는 검색의 미래를 정확하게 예측했습니다.
거의 25년 전에 말이죠.
02:52
almost 25 years ago.
55
172002
2269
02:54
The future of search is artificial intelligence.
56
174305
3136
검색의 미래는 인공 지능입니다.
02:57
That’s why I’m here, and we’re going to talk more about it.
57
177474
2803
그래서 제가 이 자리에 있는 거고요. 이건 앞으로 더 이야기해 보죠.
둘째, 매우 흥미로운 일인데요,
03:01
Second, it's very interesting how a common theme
58
181011
3637
03:04
in interviews like those or events like these
59
184682
3103
이런 인터뷰나 행사에서 흔히 다루는 주제가
03:07
is us thinking about the future.
60
187785
2269
미래에 대한 우리의 생각이라는 겁니다.
03:10
What is the future of search?
61
190087
1935
검색의 미래는 어떨까요?
기술의 미래는 어떨까요?
03:12
What is the future of technology?
62
192056
1935
03:13
What is the future of AI?
63
193991
1768
AI의 미래는요?
03:16
I'm sure a lot of you have lots of thoughts about these questions.
64
196427
3537
분명 많은 분들이 이 질문에 다양한 생각을 가지고 계실 겁니다.
03:19
In some sense, that is the purpose of technology:
65
199997
2536
어떻게 보면 그것이 기술의 목적입니다.
03:22
to keep us thinking and to keep us evolving.
66
202533
2269
계속 생각하고 계속 발전하는 것이죠.
03:25
But people like Larry, or people like you or people like me,
67
205836
3670
하지만 래리나 여러분, 또는 저와 같은 사람들은
03:29
we are not building technology in a vacuum.
68
209540
2903
외부와 단절된 채로 기술을 개발하는 게 아니죠.
03:32
We are building technology for us, the people.
69
212443
3203
우리는 우리를 위해서, 사람을 위해서 기술을 개발합니다.
03:35
We are the people.
70
215679
1635
우리는 사람입니다.
03:37
So when we come here to think about what is the future of technology
71
217348
3503
그러니 우리가 여기서 기술과 인공 지능의 미래를 생각할 때
03:40
or what is the future of AI,
72
220884
1869
03:42
let's ask ourselves this question:
73
222786
2236
스스로에게 이 질문을 던져봅시다.
우리, 인간의 미래는 무엇일까요?
03:45
What is the future of us, the people?
74
225055
2203
03:48
I believe that AI will make us even more human.
75
228559
3937
저는 AI가 우리를 더욱 인간답게 만들 것이라고 믿습니다.
03:54
Socrates, the Greek philosopher,
76
234999
2235
그리스 철학자 소크라테스는
03:57
is famous for saying that wisdom comes from realizing how little we know,
77
237234
5372
우리가 아는 것이 얼마나 적은지 깨달을 때 지혜가 생기며,
04:02
or that progress can only be made by asking better questions.
78
242640
5538
더 나은 질문을 던져야만 진보한다고 말한 것으로 유명합니다.
04:08
The Socratic method is essentially the practice of relentless questioning.
79
248212
5972
소크라테스식 문답법은 본질적으로 끊임없이 질문하는 것입니다.
04:14
Relentless questioning is something academics do all the time.
80
254218
2903
끊임없는 질문은 학자들이 항상 하는 일이지요.
04:17
It has been core to the progress of human intellect
81
257821
3537
지난 1,000년 동안 인간 지성의 발전에도 핵심 역할을 했습니다.
04:21
over the past 1,000 years.
82
261392
2102
04:24
Relentless questioning is also a practice that can be done
83
264295
4304
끊임없이 질문하는 행위는
AI의 능력으로 몇 배는 더 원활히 이루어질 수 있습니다.
04:28
orders of magnitude better with the power of AI.
84
268632
3837
04:32
And by the way, relentless questioning is something south Indian parents do
85
272503
4905
참고로, 끊임없이 질문하는 것은 남부 인도 부모님들이 하는 행동인데요,
04:37
when you tell them you're leaving a good university or a stable job
86
277408
3703
자녀가 좋은 대학을 자퇴하거나
안정적인 직장을 그만두고 스타트업에 간다고 하면 나타나죠.
04:41
to go join a startup.
87
281111
1368
04:42
(Laughter)
88
282513
3036
(웃음)
04:46
So, jokes aside, relentless questioning is something fundamentally human.
89
286350
4571
농담은 여기까지 하고요,
끊임없는 질문은 근본적으로 인간적인 행위입니다.
04:51
The physicist David Deutsch has proposed that we humans
90
291989
4604
물리학자 데이비드 도이치는
익숙한 것에도 호기심을 가지는 종족은
04:56
are the only species who have curiosity for what is already familiar.
91
296627
4538
인간이 유일하다고 말했습니다.
05:01
We can know so much about the stars above us
92
301999
2669
저 위에 있는 별이나 눈앞의 기계와 관련된 많은 것을 알 수 있지만
05:04
or the machines in front of us
93
304702
1901
05:06
and yet continue to have more questions about them.
94
306637
2736
계속해서 더 많은 의문을 품는다는 겁니다.
05:10
It seems like for humans, every answer leads to a new set of questions.
95
310541
5071
인간은 해답을 얻으면 항상 새로운 질문을 만드는 것 같습니다.
05:15
Questions that we haven't even asked before.
96
315612
2470
이전에는 한번도 해 본 적 없는 질문을요.
05:18
That, to me, is what the future of technology should be about.
97
318949
4405
저는 이것이 기술의 미래가 되어야 한다고 생각합니다.
05:23
And it's also how Perplexity was born.
98
323387
2269
퍼플렉시티도 이런 과정에서 탄생했습니다.
05:27
I was raised as an academic in the comforting arms of universities.
99
327558
3804
저는 대학이라는 안락한 울타리 속에서 자랐습니다.
05:31
So when I actually entered the real world and tried to do my own company,
100
331362
4037
현실 세계에 뛰어들어 회사를 실제로 운영하려고 하니
05:35
I had an endless set of questions.
101
335432
2336
질문이 끝없이 생기더군요.
05:37
SPVs, SAFE notes, health insurance.
102
337801
3003
특수 목적 회사, 건강 보험, 조건부 지분 인수 계약.
05:40
I needed to figure all these things out.
103
340838
2569
모든 것을 알아내야 했어요.
05:43
And all these required to do a lot of research
104
343407
3036
그러기 위해서는 많은 연구와 실질적인 해답이 필요했습니다.
05:46
and needed actual answers.
105
346443
1835
05:48
And traditional search engines left me lost.
106
348278
3037
그리고 기존의 검색 엔진으로는 저는 길을 잃어버립니다.
05:51
There was a ton of information
107
351348
1468
무수히 많은 정보를 하나씩 평가할 시간이 거의 없었거든요.
05:52
and very little time to evaluate any of it.
108
352850
2102
05:55
And neither did I have access to all of the experts on all these topics.
109
355819
4405
모든 주제에 맞는 전문가를 만날 기회도 없었죠.
06:00
So I was actually truly in a state of perplexity.
110
360257
2569
퍼플렉시티라는 단어 뜻처럼 그야말로 당혹스러운 상황이었어요.
(웃음)
06:04
So that's when I thought,
111
364928
1602
그때, 인공 지능이 이걸 대신해 준다면 어떨까 싶더군요.
06:06
maybe I could have an AI do this for me.
112
366530
2502
AI에게 이 모든 질문을 할 수 있을 것 같았습니다.
06:09
Maybe I could go ask an AI all these questions,
113
369032
2536
06:11
if it was able to pull information from the web
114
371568
2403
AI가 웹에서 정보를 가져와 모든 질문에 답할 수 있다면 말이죠.
06:14
and answer all my questions.
115
374004
1535
06:16
So my cofounders and I came together,
116
376306
2269
그래서 저는 공동 창업자들과 모여 슬랙봇을 개발했습니다.
06:18
and we built a Sackbot
117
378575
1936
06:20
where we could just ask our own questions.
118
380544
2469
슬랙봇에게 각자의 질문을 던질 수 있었죠.
06:23
Once we began using it is when we realized
119
383781
2569
슬랙봇을 사용하기 시작하자
우리 자신보다 훨씬 큰 존재를 개발했다는 걸 알게 되었습니다.
06:26
what we built was much bigger than ourselves.
120
386383
2703
06:29
For the first time,
121
389119
1568
태어나서 처음으로 제가 원하는 모든 질문을 할 수 있었어요.
06:30
I had the ability to go ask whatever question I wanted about any topic,
122
390721
4938
주제가 어떤 것이든,
06:35
no matter my level of expertise in it,
123
395659
2236
저의 지식 수준도 상관없었죠.
06:37
and get a well-researched answer from the web.
124
397928
2436
웹에서 면밀히 조사한 답변을 얻을 수 있었습니다.
06:41
And it's not just about an answer.
125
401832
2302
답변을 받았다는 사실보다 중요한 건
06:44
It's an answer that I can actually trust.
126
404168
2302
신뢰할 수 있는 해답을 얻었다는 겁니다.
06:47
In this case, every answer in Perplexity
127
407504
2436
퍼플렉시티의 모든 답변은 웹에서 인용한 출처를 같이 줍니다.
06:49
comes with sources from the web in the form of citations,
128
409973
3337
06:53
just like academics cite their sources.
129
413343
2169
학자들이 출처를 적는 것처럼요.
06:56
Now this is pretty powerful
130
416513
1769
이것은 꽤나 강력합니다.
06:58
because trust is not unique to animals or humans,
131
418282
3537
신뢰는 동물이나 인간에게만 있는 것이 아니지만,
07:01
but it empowers us pretty differently.
132
421819
2068
인간의 역량을 사뭇 다른 방식으로 강화해 주거든요.
07:04
In the case of humans, an answer you could trust
133
424755
3003
인간은 신뢰할 만한 답변이 있으면
07:07
allows you to ask better follow-up questions.
134
427791
3270
수준이 더욱 향상된 후속 질문을 하게 됩니다.
질문이 많으면 더 많은 지식으로 이어지죠.
07:11
More questions lead to more knowledge.
135
431094
2303
07:13
That's the point of ensuring that you could always get an answer
136
433430
3470
바로 이 지점에서 올바르게 인용된 자료가 있으면
07:16
with well-cited sources.
137
436934
2335
해답을 얻을 수 있다는 확신이 생기는 겁니다.
07:19
And in Perplexity, ever since the beginning,
138
439303
2669
퍼플렉시티는 서비스 초반부터 항상
추가 질문이 가능하도록 답변에 출처를 포함하고 있습니다.
07:22
every answer has always come with sources
139
442005
2903
07:24
that allows you to ask more questions.
140
444908
2102
07:27
In my case, once I ask questions about SAFE notes or insurance,
141
447945
4404
저는 조건부 지분 인수 계약이나 보험에 대해 질문할 때
07:32
I ask more questions.
142
452382
1902
추가 질문을 합니다.
07:34
What areas outside of insurance could I benefit from
143
454284
4271
보험 외에 어떤 영역에 관해 질문하면
좋은 답변에서 혜택을 받을 수 있을까요?
07:38
having access to better answers?
144
458589
2402
07:40
Who else in the world benefits from having access to better answers?
145
460991
4137
더 나은 해답으로 혜택받을 사람이 세상에 또 있을까요?
07:45
Now the answer is basically all of us.
146
465162
2736
기본적으로 우리 모두가 그렇겠죠.
07:47
Every single person benefits from having access to better answers.
147
467931
4038
모든 사람이 더 나은 해답을 얻게 되면 유익한 경험을 할 겁니다.
07:53
This is such a profound shift in human history.
148
473136
3637
인류 역사에 일어난 엄청난 변화라고 할 수 있습니다.
07:56
Until recently, if you wanted the best answers,
149
476807
3670
최근까지만 해도 가장 뛰어난 답변을 원하면
08:00
you had to be someone who could afford it.
150
480511
2369
그 답변을 얻을 여유가 있어야 했습니다.
08:02
You had to be someone who had access to the greatest minds in the world
151
482913
3737
세계에서 가장 뛰어난 지식인들을 만날 기회가 있어야 했고
08:06
or the best materials, libraries, expertise.
152
486683
2770
가장 훌륭한 자료, 도서관, 전문 지식을 이용할 수 있어야 했죠.
08:10
And now that's changing.
153
490287
2002
이제 상황이 바뀌고 있습니다.
08:13
If a major achievement of the internet
154
493891
3803
인터넷의 주요 성과가
08:17
was to give everyone access to all of the world's information,
155
497694
4071
모든 사람이 전 세계 모든 정보에 접근할 수 있게 된 것이라면,
08:21
a major achievement of AI would be to give everyone access
156
501798
4305
AI의 주요 성과는
모든 사람이 세상의 모든 해답에 접근할 수 있게 된 것입니다.
08:26
to all of the world's answers.
157
506136
2102
08:28
It doesn't matter if you're a Harvard professor
158
508238
2336
여러분이 하버드 대학 교수이든,
08:30
or an underserved student in a developing nation,
159
510574
2903
개발도상국에 있는 소외된 학생이든 상관없습니다.
08:33
we all get access to the same answers.
160
513510
2936
우리 모두는 같은 답을 얻을 수 있습니다.
08:36
With AI that keeps getting better and better
161
516446
2203
모든 질문에 더욱 나은 답변을 내놓는 AI의 도움으로
08:38
at answering all our questions,
162
518682
1869
08:40
the marginal cost of research is rapidly approaching zero.
163
520584
4571
연구의 한계 비용은 급속도로 0에 가까워지고 있습니다.
08:46
In that new era of humanity that AI is powering,
164
526423
3871
AI가 힘을 보태는 인류의 새로운 시대에는
08:50
knowledge does not really care about who you are, where you’re from
165
530327
3804
여러분이 누구인지, 어디서 왔는지, 누구를 아는지는 지식과 관련 없습니다.
08:54
or who you have access to.
166
534164
1735
08:55
Rather, what matters is the next question you're going to ask.
167
535933
4904
그보다는 다음에 어떤 질문을 하는지가 더 중요합니다.
09:00
When all of the world's answers
168
540871
1902
전 세계 모든 사람이 모든 질문에 해답을 찾을 수 있다면,
09:02
are available to all of the world's people,
169
542806
2603
09:05
one can only wonder:
170
545409
1768
이런 궁금증만 남을 겁니다.
09:07
What will the best questions be,
171
547210
2470
’좋은 질문은 무엇이며,
09:09
and how many such questions will get asked?
172
549713
3270
좋은 질문을 얼마나 할 수 있을까?′
이 지점에서 다시 데이비드 도이치는
09:13
This is again where David Deutsch argues that human potential is infinite.
173
553016
6807
인간의 잠재력이 무한하다고 주장합니다.
09:19
As long as we keep engaging in relentless questioning
174
559823
2603
끊임없이 질문하고 흥미로운 질문을 던진다면
09:22
and keep asking an interesting set of questions,
175
562459
3170
09:25
the sky is the limit in terms of what we can actually learn.
176
565662
2870
실제로 배울 수 있는 것은 무한해집니다.
09:29
For example, humans are always curious.
177
569533
3470
예를 들어, 인간은 항상 호기심이 많습니다.
아기를 보면 알 수 있죠.
09:33
You can see that in babies.
178
573036
2403
09:35
Even before they learn to crawl,
179
575472
2002
기는 법을 배우기도 전에 주변 환경을 궁금해합니다.
09:37
they're pretty curious about what's around them.
180
577507
2770
09:40
That's a natural trait for all of us.
181
580277
2269
모든 인간의 자연스러운 특성이죠.
09:43
Take an example of the technologies that we are building.
182
583547
3003
우리가 개발하는 기술을 예로 들겠습니다.
09:46
In the case of the bot that became Perplexity.
183
586583
2970
퍼플렉시티로 개발된 봇을 통해
09:49
Once I got answers to something like health insurance,
184
589586
2903
건강 보험과 관련된 질문에 답변을 얻으면,
09:52
I could ask an infinite set of new questions,
185
592489
2936
새로운 질문을 끝없이 던질 수 있습니다.
09:55
ranging from very pointed ones,
186
595459
2102
다음과 같은 아주 날카로운 질문,
09:57
like, what are concrete ways to improve the health care insurance industry,
187
597594
4772
의료 보험 산업을 개선하는 구체적인 방안부터
10:02
to very broad ones,
188
602366
1868
다음과 같은 아주 광범위한 질문,
10:04
like, who else would benefit from having access to such a technology?
189
604234
4938
이러한 기술을 이용해서 혜택을 받는 사람은 누구인지까지 말이죠.
10:09
It seems to a curious species
190
609206
2269
호기심 많은 종족에게
10:11
every question and answer that you get is a lead to the next set of questions,
191
611508
4538
모든 질문과 답변은 다음 질문으로 연결하는 통로가 되어
10:16
and spawns several paths of curiosity,
192
616079
3370
수많은 호기심 경로를 만들어냅니다.
10:19
more than any one person can keep track of.
193
619449
3337
어느 한 사람이 파악할 수 있는 것보다 더 많은 길이죠.
10:24
So when we are here to wonder about what is the future of technology,
194
624488
4104
우리가 이곳에서 기술과 AI의 미래를 궁금해할 때,
10:28
or what is the future of AI,
195
628625
1935
10:30
we are merely talking about the outputs,
196
630594
2536
우리는 단지 결과물을 가지고 이야기하는 것뿐입니다.
이 결과물은 훨씬 큰 다음 질문에서 옵니다.
10:33
the outputs of a much bigger question:
197
633163
2870
‘인간 호기심의 미래는 무엇일까?’
10:36
What is the future of human curiosity?
198
636033
2769
저는 확신합니다.
10:40
It is my strong belief that in an age
199
640070
3103
AI의 능력이 점점 향상되어 우리의 모든 질문에 답하는 시대가 되면
10:43
where AI gets better and better at answering all our questions,
200
643206
4472
10:47
this human quality that makes us so human will become even more essential.
201
647711
5072
인간을 인간답게 만드는 이 자질이 더욱 중요해지리라는 것을요.
10:52
Our innate curiosity and our relentless questioning.
202
652783
3536
타고난 호기심과 끊임없이 질문하는 능력 말입니다.
10:57
With all of the world's answers available to us,
203
657254
2769
세상의 모든 해답을 찾을 수 있는 것,
질문을 위해 이용하는 도구,
11:00
the tools we use to ask our questions,
204
660057
3169
11:03
and the stuff that we build using those answers,
205
663260
3203
그리고 그 답을 바탕으로 우리가 만들어가는 것이
11:06
those to me are the future of our technology.
206
666496
3571
제가 생각하는 기술의 미래입니다.
11:10
And more importantly,
207
670100
1568
더 중요한 것은
11:11
that is the future of us, the future of humans.
208
671702
3770
이것이 우리의 미래, 곧 인간의 미래라는 것입니다.
11:15
We are all curious,
209
675505
1735
우리는 모두 호기심이 많습니다.
11:17
and when we are curious, we want answers.
210
677240
2403
호기심이 생기면 답을 찾고 싶어 하죠.
11:19
We really do.
211
679676
1602
11:21
But what we really want are those answers
212
681278
3103
하지만 우리가 정말 원하는 건 다음 질문으로 이어지는 해답입니다.
11:24
that lead us to the next set of questions.
213
684414
2569
여러분이 이제 어떤 질문을 하실지 정말 기대됩니다.
11:27
And I, for one, can't wait to see what you will ask next.
214
687017
3970
11:30
Thank you.
215
690987
1268
감사합니다.
11:32
(Applause)
216
692289
3170
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7