Ray Kurzweil: Get ready for hybrid thinking

521,050 views ・ 2014-06-02

TED


வீடியோவை இயக்க கீழே உள்ள ஆங்கில வசனங்களில் இருமுறை கிளிக் செய்யவும்.

Translator: Kalyanasundar Subramanyam Reviewer: Vijaya Sankar N
00:12
Let me tell you a story.
0
12988
2316
நான் உங்களுக்கு ஒரு கதை சொல்கிறேன்
00:15
It goes back 200 million years.
1
15304
1799
அது 200 மில்லியன் ஆண்டுகள் பழமையான ஒரு கதை.
00:17
It's a story of the neocortex,
2
17103
1984
அது புதிய பெருமூளை புறணி குறித்த கதை.
00:19
which means "new rind."
3
19087
1974
"புதிய ஓடு" என்றும் கூட பொருள் கொள்ளலாம்.
00:21
So in these early mammals,
4
21061
2431
ஆக முற்காலத்திய பாலூட்டிகளில்,
00:23
because only mammals have a neocortex,
5
23492
2055
பாலூட்டிகளுக்கு மட்டுமே இந்த புதிய புறணி உள்ளது,
00:25
rodent-like creatures.
6
25547
1664
எலி இனம் போன்ற கொறி விலங்கினங்கள்.
00:27
It was the size of a postage stamp and just as thin,
7
27211
3579
அது ஒரு அஞ்சல் முத்திரை அளவுக்கு சிறிதாகவும் மெலிதாகவும் இருந்தது,
00:30
and was a thin covering around
8
30790
1439
அதாவது ஒரு மெல்லிய உறை போல
00:32
their walnut-sized brain,
9
32229
2264
வாதுமை கொட்டை அளவே உள்ள அவைகளின் மூளையை சுற்றி இருந்தது,
00:34
but it was capable of a new type of thinking.
10
34493
3701
ஆனால் அதற்கு புதிதாக சிந்திக்கும் திறன் இருந்தது.
00:38
Rather than the fixed behaviors
11
38194
1567
அதாவது பாலூட்டிகள் அல்லாத விலங்குகளின்
00:39
that non-mammalian animals have,
12
39761
1992
வரையறுக்கப்பட்ட நடத்தைகளில் இருந்து மாறுபட்டு இருந்தது,
00:41
it could invent new behaviors.
13
41753
2692
இவைகளுக்கு புதிய நடத்தை முறைகளை கண்டுபிடிக்கும் திறன் இருந்தது.
00:44
So a mouse is escaping a predator,
14
44445
2553
அதனால் தான் எலிகள் கொன்றுண்ணிகளிடமிருந்து தப்புகிறது.
00:46
its path is blocked,
15
46998
1540
அதன் வழி தடை செய்யபட்டால்,
00:48
it'll try to invent a new solution.
16
48538
2129
அது ஒரு புதிய தீர்வை கண்டுபிடிக்க முயலும்.
00:50
That may work, it may not,
17
50667
1266
அந்த முறை வேலை செய்யலாம் அல்லது தோல்வியுறலாம்,
00:51
but if it does, it will remember that
18
51933
1910
ஆனால் வெற்றியடைந்தால் அதை நினைவில் வைத்து கொள்ளும்
00:53
and have a new behavior,
19
53843
1292
அப்படி ஒரு புதிய நடத்தை முறையை தனது பட்டறிவு மூலம் தெரிந்து கொள்ளும்.
00:55
and that can actually spread virally
20
55135
1457
தன் இனத்தை சார்ந்த மற்றவர்கள் மூலம்
00:56
through the rest of the community.
21
56592
2195
அந்த முறையை வேகமாக பரப்பும்,
00:58
Another mouse watching this could say,
22
58787
1609
இதை பார்க்கும் மற்றொரு எலி கூறலாம்,
01:00
"Hey, that was pretty clever, going around that rock,"
23
60396
2704
"மலையை சுற்றி போகும் இந்த தந்திரம் நன்றாக இருக்கிறதே"
01:03
and it could adopt a new behavior as well.
24
63100
3725
மேலும் அது இன்னொரு முறையையும் தேர்ந்தெடுக்கலாம்.
01:06
Non-mammalian animals
25
66825
1717
பாலூட்டிகள் அல்லாத விலங்குகளால்
01:08
couldn't do any of those things.
26
68542
1713
அவை எதுவுமே செய்யமுடியாது.
01:10
They had fixed behaviors.
27
70255
1215
அவைகளது நடத்தை முறை வரையறுக்கப்பட்டது.
01:11
Now they could learn a new behavior
28
71470
1331
தற்பொழுது அவைகள் புதிய நடத்தை முறைகளை கற்று கொள்ளலாம்
01:12
but not in the course of one lifetime.
29
72801
2576
ஆனால் அவைகளின் வாழ்நாளில் அல்ல.
01:15
In the course of maybe a thousand lifetimes,
30
75377
1767
இன்னும் ஒரு ஆயிரம் ஆண்டுகள் சென்ற பின்பு
01:17
it could evolve a new fixed behavior.
31
77144
3330
ஒரு வேளை அவ்விலங்குகள் ஒரு புதிய வரையறுக்கப்பட்ட நடத்தை முறையை வெளிப்படுத்தலாம்.
01:20
That was perfectly okay 200 million years ago.
32
80474
3377
200 மில்லியன் ஆண்டுகளுக்கு முன்பு இருந்த நிலைமைக்கு அது மிக சரியாக இருந்திருக்கலாம்.
01:23
The environment changed very slowly.
33
83851
1981
அப்பொழுது சுற்று சூழல் மாறுதல்கள் மிக மெதுவாகவே நடந்தது.
01:25
It could take 10,000 years for there to be
34
85832
1554
10,000 ஆண்டுகள் கூட எடுத்திருக்கலாம்,
01:27
a significant environmental change,
35
87386
2092
குறிப்பிடத்தக்க ஒரு சுற்று சூழல் மாறுதல் ஏற்படுவதற்கு,
01:29
and during that period of time
36
89478
1382
அந்த கால அளவில் அவைகள் ஒரு புதிய
01:30
it would evolve a new behavior.
37
90860
2929
நடத்தை முறையை கொணரலாம்.
01:33
Now that went along fine,
38
93789
1521
இப்படி சரியாக தான் போய் கொண்டிருந்தது,
01:35
but then something happened.
39
95310
1704
ஆனால் அப்பொழுது ஒரு நிகழ்வு நடந்தது.
01:37
Sixty-five million years ago,
40
97014
2246
65 மில்லியன் ஆண்டுகளுக்கு முன்பு,
01:39
there was a sudden, violent change to the environment.
41
99260
2615
திடீர் என்று கட்டு மீறிய ஒரு சுற்று சூழல் மாறுதல் ஏற்பட்டது.
01:41
We call it the Cretaceous extinction event.
42
101875
3505
அது க்றேடஷியஸ் அழிவு நிகழ்வு என்று சொல்லபடுகிறது.
01:45
That's when the dinosaurs went extinct,
43
105380
2293
அது டைனோசார்களின் அழிவு காலத்தை குறிக்கிறது,
01:47
that's when 75 percent of the
44
107673
3449
அப்பொழுது தான் ஏறக்குறைய 75 விழுக்காடு
01:51
animal and plant species went extinct,
45
111122
2746
விலங்குகள் மற்றும் தாவர இனங்கள் அழிந்தன,
01:53
and that's when mammals
46
113868
1745
அப்பொழுதான் பாலூட்டிகள்
01:55
overtook their ecological niche,
47
115613
2152
சூழ்நிலை கூறை முந்தியது
01:57
and to anthropomorphize, biological evolution said,
48
117765
3654
மனித இயல்பு படி சொல்வெதென்றால், உயிரியல் சிறத்தல் சொல்லியது,
02:01
"Hmm, this neocortex is pretty good stuff,"
49
121419
2025
"ஹ்ம்..இந்த புதிய புறணி ஒரு சிறந்த அம்சம் தான்"
02:03
and it began to grow it.
50
123444
1793
அப்படி அதை விருத்தியடைய செய்தது.
02:05
And mammals got bigger,
51
125237
1342
பாலூட்டிகள் மிகவும் பெரிதாக வளர்ந்தது,
02:06
their brains got bigger at an even faster pace,
52
126579
2915
அவைகளின் மூளை வளர்ச்சி இன்னும் வேகமாக இருந்தது,
02:09
and the neocortex got bigger even faster than that
53
129494
3807
புதிய புறணியின் வளர்ச்சி அதை விட வேகமாக இருந்தது
02:13
and developed these distinctive ridges and folds
54
133301
2929
தனித்தன்மை வாய்ந்த நீட்சிகளும் மடிப்புகளும் உருவானது
02:16
basically to increase its surface area.
55
136230
2881
அடிப்படையில் அதன் பரப்பளவு அதிகமாகியது
02:19
If you took the human neocortex
56
139111
1819
மனிதனின் புதிய புறணியை எடுத்து
02:20
and stretched it out,
57
140930
1301
வலித்திழுத்தால்,
02:22
it's about the size of a table napkin,
58
142231
1713
ஒரு மேஜை துடை துண்டு அளவுக்கு இருக்கும்
02:23
and it's still a thin structure.
59
143944
1306
ஆனால் அதன் அமைப்பு மெல்லியதாகவே இருக்கும்.
02:25
It's about the thickness of a table napkin.
60
145250
1980
தடிமனும் ஒரு மேஜை துண்டு அளவே இருக்கும்.
02:27
But it has so many convolutions and ridges
61
147230
2497
ஆனால் அதிக அளவில் சுருள்களும் நீட்சிகளும் இருக்கும்
02:29
it's now 80 percent of our brain,
62
149727
3075
இப்பொழுது ஏறக்குறைய 80 விழுக்காடு நமது மூளையை போலவே இருக்கும்,
02:32
and that's where we do our thinking,
63
152802
2461
அங்கு தான் நமது சிந்திக்கும் திறன் இருக்கிறது,
02:35
and it's the great sublimator.
64
155263
1761
அது தான் நமது மிக பெரிய திறன் மேம்பாடு மையம்.
02:37
We still have that old brain
65
157024
1114
நமது பழைய மூளை இன்னமும் இருக்கிறது
02:38
that provides our basic drives and motivations,
66
158138
2764
அடிப்படையில் அது நம்மை இயக்கி கொண்டும் ஊக்கபடுத்தி கொண்டும் இருக்கிறது,
02:40
but I may have a drive for conquest,
67
160902
2716
எனக்கு வெற்றி பெறவேண்டும் என்ற ஊக்கம் இருக்கலாம்,
02:43
and that'll be sublimated by the neocortex
68
163618
2715
ஆனால் அதற்கான திறனை மேம்படுத்துவது புதிய புறணி தான்
02:46
into writing a poem or inventing an app
69
166333
2909
அது கவிதையாக இருக்கலாம் அல்லது ஒரு மென்பொருள் பயன்பாடை கண்டுபிடிப்பதாக கூட இருக்கலாம்
02:49
or giving a TED Talk,
70
169242
1509
அல்லது ஒரு TED உரை நிகழ்த்துவதாக கூட இருக்கலாம்,
02:50
and it's really the neocortex that's where
71
170751
3622
புதிய புறணியில் தான் இதற்கான
02:54
the action is.
72
174373
1968
அனைத்து செயல்களும் நடைபெறுகிறது.
02:56
Fifty years ago, I wrote a paper
73
176341
1717
50 ஆண்டுகளுக்கு முன்பு நான் ஒரு கட்டுரை எழுதினேன்
02:58
describing how I thought the brain worked,
74
178058
1918
மூளை எப்படி இயங்குகிறது என்பதை குறித்து,
02:59
and I described it as a series of modules.
75
179976
3199
அவைகளை ஒரு தொடர் கட்டகமாக விளக்கியிருந்தேன்.
03:03
Each module could do things with a pattern.
76
183175
2128
ஒவ்வொரு கட்டகமும் ஒரு வகையில் செயல்படும்.
03:05
It could learn a pattern. It could remember a pattern.
77
185303
2746
ஒவ்வொரு கட்டகத்திற்கும் ஒரு வகையை கற்கவும் நினைவில் கொள்ளவும் முடியும்.
03:08
It could implement a pattern.
78
188049
1407
அந்த மாதிரியை செயல்படுத்தும் திறனும் இருந்தது.
03:09
And these modules were organized in hierarchies,
79
189456
2679
இந்த கட்டகங்களுக்கு ஒழுங்குபடுத்தப்பட்ட படிநிலைகள் இருந்தது,
03:12
and we created that hierarchy with our own thinking.
80
192135
2954
இந்த படிநிலைகள் நமது சிந்தனைகளில் உருவாகிறது.
03:15
And there was actually very little to go on
81
195089
3333
சொல்லபோனால் மிக சிறிய முன்னேற்றமே
03:18
50 years ago.
82
198422
1562
இந்த 50 ஆண்டுகளில் ஏற்பட்டிருக்க கூடும்.
03:19
It led me to meet President Johnson.
83
199984
2115
இது அதிபர் ஜான்சனை சந்திக்கும் வாய்ப்பை எனக்கு ஏற்படுத்தி கொடுத்தது.
03:22
I've been thinking about this for 50 years,
84
202099
2173
இதை பற்றி நான் கடந்த 50 ஆண்டுகளாக நினைத்து கொண்டிருந்தேன்,
03:24
and a year and a half ago I came out with the book
85
204272
2828
ஒன்றரை ஆண்டுகளுக்கு முன்பு நான்
03:27
"How To Create A Mind,"
86
207100
1265
"மனதை உருவாக்குவது எப்படி" என்ற நூலை எழுதினேன்,
03:28
which has the same thesis,
87
208365
1613
அந்த ஆய்வு கட்டுரையிலும் இதையே சொல்லியிருந்தேன்,
03:29
but now there's a plethora of evidence.
88
209978
2812
ஆனால் தற்பொழுது அபரிமிதமான சான்றுகள் உள்ளன.
03:32
The amount of data we're getting about the brain
89
212790
1814
நரம்பு இயங்கியலில் இருந்து மூளை குறித்து நமக்கு
03:34
from neuroscience is doubling every year.
90
214604
2203
கிடைக்கும் தரவுகள் இரட்டிப்பாக உள்ளது.
03:36
Spatial resolution of brainscanning of all types
91
216807
2654
எல்லா விதமான, இடம் சார்ந்த, மூளை அலகீடு குறித்த பிரிதிறன்
03:39
is doubling every year.
92
219461
2285
ஆண்டு தோறும் இரட்டிப்பாகி வருகிறது.
03:41
We can now see inside a living brain
93
221746
1717
இப்பொழுது நம்மால் உயிருள்ள ஒரு மூளையின் உட்பகுதியை பார்க்க முடியும்
03:43
and see individual interneural connections
94
223463
2870
அதன் உள்புறம் இருக்கும் நரம்புகளுக்கு இடையே உள்ள தனித்த இணைப்புகளை காண முடியும்
03:46
connecting in real time, firing in real time.
95
226333
2703
நிகழ் நேர இணைப்புகளையும் மற்றும் இயக்கங்களையும் காண முடியும்
03:49
We can see your brain create your thoughts.
96
229036
2419
உங்களது மூளை எண்ண தொடர்களை உருவாக்குவதை பார்க்கலாம்.
03:51
We can see your thoughts create your brain,
97
231455
1575
உங்கள் எண்ணங்கள் தான் உங்கள் மூளை என்பதையும்,
03:53
which is really key to how it works.
98
233030
1999
அவை தான் மூளை செய்லபடுவதற்க்கான திறவுகோல் என்பதையும் பார்க்கலாம்.
03:55
So let me describe briefly how it works.
99
235029
2219
சுருக்கமாக மூளை எப்படி செயல்படுகிறது என்பதை சொல்கிறேன்.
03:57
I've actually counted these modules.
100
237248
2275
உண்மையில் இந்த கட்டகங்களின் எண்ணிக்கையை நான் குறித்தேன்.
03:59
We have about 300 million of them,
101
239523
2046
ஏறக்குறைய 300 மில்லியன் கட்டகங்கள் உள்ளன,
04:01
and we create them in these hierarchies.
102
241569
2229
நாம் அவைகளை படிநிலை வரிசை படுத்தியிருக்கிறோம்.
04:03
I'll give you a simple example.
103
243798
2082
ஒரு சிறிய எடுத்துகாட்டை சொல்கிறேன்.
04:05
I've got a bunch of modules
104
245880
2805
என்னிடம் இரு கற்றை கட்டகங்கள் உள்ளன
04:08
that can recognize the crossbar to a capital A,
105
248685
3403
அவைகளால் A என்ற எழுத்தின் குறுக்கு சட்டத்தை தெரிந்து கொள்ள முடியும்,
04:12
and that's all they care about.
106
252088
1914
அவைகளுக்கு அதை பற்றி மட்டுமே தெரியும்.
04:14
A beautiful song can play,
107
254002
1578
ஒரு அழகான பாடலையோ,
04:15
a pretty girl could walk by,
108
255580
1434
அழகான பெண் நடந்து போவதையோ,
04:17
they don't care, but they see a crossbar to a capital A,
109
257014
2846
பற்றி அவைகள் கவலைபடாது ஆனால் அவைகளால் A என்ற எழுத்தின் குறுக்கு சட்டத்தை மட்டும் புரிந்து கொள்ள முடியும்,
04:19
they get very excited and they say "crossbar,"
110
259860
3021
அவற்றை பார்த்தவுடன் ஆர்வத்துடன் "குறுக்கு சட்டம்" என்று சொல்லும்
04:22
and they put out a high probability
111
262881
2112
அதன் விளைவாக இப்படியான ஒரு நிகழவாய்ப்பு
04:24
on their output axon.
112
264993
1634
இருப்பதாக நரம்பிழை தண்டுக்கு வெளிபடுத்தும்
04:26
That goes to the next level,
113
266627
1333
அது அடுத்த நிலைக்கு அதனை எடுத்து செல்லும்,
04:27
and these layers are organized in conceptual levels.
114
267960
2750
இந்த அடுக்குகள் எல்லாம் ஒரு கருத்தை உருவாக்கும் நிலையிலேயே அமைக்கபட்டிருக்கிறது.
04:30
Each is more abstract than the next one,
115
270710
1856
ஓவொன்றும் அடுத்த குறிப்புக்கான ஒரு சுருக்க குறிப்பாக எடுத்து கொள்ளலாம்,
04:32
so the next one might say "capital A."
116
272566
2418
அடுத்த குறிப்பு அதை "முகட்டெழுத்து A" என்று கூட சொல்லலாம்.
04:34
That goes up to a higher level that might say "Apple."
117
274984
2891
இன்னும் அடுத்த உயர் நிலைக்கு சென்றால் " Apple " என்று கூட சொல்லலாம்.
04:37
Information flows down also.
118
277875
2167
தகவல்கள் கீழ் நோக்கியும் வருவது உண்டு.
04:40
If the apple recognizer has seen A-P-P-L,
119
280042
2936
'ஆப்பிள்' என்ற சொல்லை அடையாளம் காணும் கட்டகம் A-P-P-L என்ற எழுத்துக்களை கண்ட உடன்
04:42
it'll think to itself, "Hmm, I think an E is probably likely,"
120
282978
3219
அடுத்த எழுத்து E ஆக இருக்கலாம் என்று நினைக்கும்.
04:46
and it'll send a signal down to all the E recognizers
121
286197
2564
உடனே அது E என்ற எழுத்தை கண்டறியும் எல்லா கட்டகங்களுக்கும் ஒரு சமிக்கை அனுப்பும்.
04:48
saying, "Be on the lookout for an E,
122
288761
1619
"அடுத்த எழுத்து E ஆக இருக்கலாம், எதிர்பாருங்கள்,
04:50
I think one might be coming."
123
290380
1556
அந்த எழுத்து அடுத்து வரும் என்று நினைக்கிறேன்."
04:51
The E recognizers will lower their threshold
124
291936
2843
உடனே E என்ற எழுத்தை கண்டறியும் எல்லா கட்டகங்களும் அதன் வரம்பு மதிப்பை குறைத்து கொள்ளும்
04:54
and they see some sloppy thing, could be an E.
125
294779
1945
அடுத்து வரும் தெளிவில்லாத எழுத்தை E ஆக இருக்கலாம் என்று நினைக்கும்
04:56
Ordinarily you wouldn't think so,
126
296724
1490
வழக்கமாக நாம் அப்படி நினைப்பதில்லை,
04:58
but we're expecting an E, it's good enough,
127
298214
2009
ஆனால் நாம் இப்பொழுது E என்ற எழுத்தை எதிர்பார்த்து கொண்டிருக்கிறோம் ,அதனால் இது சரி.
05:00
and yeah, I've seen an E, and then apple says,
128
300223
1817
'ஆம் நான் E என்ற எழுத்தை பார்த்து விட்டேன் ' உடனே ஆப்பிள் கட்டகம் சொல்கிறது,
05:02
"Yeah, I've seen an Apple."
129
302040
1728
"ஆம் நான் Apple என்ற சொல்லை பார்த்து விட்டேன்."
05:03
Go up another five levels,
130
303768
1746
இன்னும் ஐந்து நிலைகள் மேலே செல்லுங்கள்,
05:05
and you're now at a pretty high level
131
305514
1353
இபொழுது நீங்கள் ஒரு சுமாரான உயர் நிலையில்
05:06
of this hierarchy,
132
306867
1569
உள்ளீர்கள், அதாவது படி நிலை வரிசையில்
05:08
and stretch down into the different senses,
133
308436
2353
சற்று விரிவடைந்து புலன் உணர்வுகளையும் தெரிந்து கொள்ளும் நிலை,
05:10
and you may have a module that sees a certain fabric,
134
310789
2655
ஒரு விதமான துணியை தெரிந்து கொள்ளும் ஒரு கட்டகம் உங்களுக்கு இருக்கலாம்,
05:13
hears a certain voice quality, smells a certain perfume,
135
313444
2844
ஒரு குரலை தெரிந்து கொள்ளவோ அல்லது ஒரு வாசனையை தெரிந்து கொண்டு,
05:16
and will say, "My wife has entered the room."
136
316288
2513
" என் மனைவி இந்த அறைக்குள் நுழைந்திருக்கிறாள் " என்று கூட சொல்லலாம்.
05:18
Go up another 10 levels, and now you're at
137
318801
1895
இன்னும் 10 நிலைகள் மேலே செல்லுங்கள்
05:20
a very high level.
138
320696
1160
நீங்கள் இப்பொழுது மிக உயர்ந்த நிலையில் உள்ளீர்கள்.
05:21
You're probably in the frontal cortex,
139
321856
1937
ஏறக்குறைய நீங்கள் இப்பொழுது முகப்பு புறணியில் இருக்கலாம்,
05:23
and you'll have modules that say, "That was ironic.
140
323793
3767
இந்த கட்டகங்கள் " இது நகை முரண்.
05:27
That's funny. She's pretty."
141
327560
2370
இது வேடிக்கை , அவள் அழகு " என்றெல்லாம் சொல்லும் திறன் கொண்டவை.
05:29
You might think that those are more sophisticated,
142
329930
2105
நீங்கள் இவைகள் மதிநுட்பமானவை என்று கருதலாம்,
05:32
but actually what's more complicated
143
332035
1506
ஆனால் உண்மையில் சிக்கலானவை
05:33
is the hierarchy beneath them.
144
333541
2669
இவைகளுக்கு கீழ்நிலையில் இருப்பவை தான்.
05:36
There was a 16-year-old girl, she had brain surgery,
145
336210
2620
ஒரு 16 வயது பெண்ணுக்கு மூளை அறுவை சிகிச்சை நடைபெற்றது.
05:38
and she was conscious because the surgeons
146
338830
2051
அவள் சுய நினைவுடன் இருந்தாள் ஏனெனில் அறுவை சிகிச்சை மருத்துவர்கள்
05:40
wanted to talk to her.
147
340881
1537
அவளுடன் சிகிச்சையின் போது பேச வேண்டும் என்று விரும்பினார்கள்.
05:42
You can do that because there's no pain receptors
148
342418
1822
அப்படி செய்ய முடியும் ஏனெனில்
05:44
in the brain.
149
344240
1038
மூளையில் வலி ஏற்பிகள் ஏதும் இல்லை.
05:45
And whenever they stimulated particular,
150
345278
1800
எப்பொழுதெல்லாம் அவர்கள் புதிய புறணியின்
05:47
very small points on her neocortex,
151
347078
2463
சில குறிப்பிட்ட பகுதிகளை தூண்டினார்களோ,
05:49
shown here in red, she would laugh.
152
349541
2665
இங்கு சிவப்பாக காட்டியிருக்கும் பகுதிகள், அவள் சிரித்தாள்.
05:52
So at first they thought they were triggering
153
352206
1440
முதலில் அவர்கள் சிரிப்பிற்கான எதோ ஒரு முடுக்கியை
05:53
some kind of laugh reflex,
154
353646
1720
தூண்டி விடுவதாக நினைத்தார்கள்,
05:55
but no, they quickly realized they had found
155
355366
2519
ஆனால் அவர்கள் சீக்கிரமே புரிந்து கொண்டார்கள்
05:57
the points in her neocortex that detect humor,
156
357885
3044
புதிய புறணியின் அந்த பகுதிகள் நகைச்சுவையை உணரும் பகுதியென்று,
06:00
and she just found everything hilarious
157
360929
1969
அந்த பகுதியை தூண்டியதினால்
06:02
whenever they stimulated these points.
158
362898
2437
அவள் களிப்படைந்தாள்.
06:05
"You guys are so funny just standing around,"
159
365335
1925
"என்னை சுற்றி நிற்கும் நீங்கள் வேடிக்கை மனிதர்கள்,"
06:07
was the typical comment,
160
367260
1738
இது தான் அவள் சொன்ன கருத்து
06:08
and they weren't funny,
161
368998
2302
ஆனால் அது அவர்களுக்கு வேடிக்கையாக இருக்கவில்லை,
06:11
not while doing surgery.
162
371300
3247
அறுவை சிகிச்சை செய்து கொண்டிருந்த சூழல் கண்டிப்பாக அப்படி இருக்க வாய்ப்பில்லை.
06:14
So how are we doing today?
163
374547
4830
சரி இன்றைய நிலைமை என்ன?
06:19
Well, computers are actually beginning to master
164
379377
3054
கணினிகள் மனித மொழிகளை பல உத்திகள் மூலம்
06:22
human language with techniques
165
382431
2001
தேர்ச்சி பெற முயலுகின்றன ,
06:24
that are similar to the neocortex.
166
384432
2867
ஏறக்குறைய புதிய புறணிகளை போலவே
06:27
I actually described the algorithm,
167
387299
1514
நான் ஒரு படிமுறையை விவரித்திருந்தேன்.
06:28
which is similar to something called
168
388813
2054
அது ஏறக்குறைய மறைக்கப்பட்ட,
06:30
a hierarchical hidden Markov model,
169
390867
2233
ஒரு மார்கோவ் மாதிரி படிநிலை போன்றது
06:33
something I've worked on since the '90s.
170
393100
3241
அது 90 களில் இருந்து நான் வேலை பார்த்த ஒரு முறை.
06:36
"Jeopardy" is a very broad natural language game,
171
396341
3238
"ஜியோபார்டி' என்பது ஒரு விரிவான இயல்பான மொழி விளையாட்டு,
06:39
and Watson got a higher score
172
399579
1892
வாட்சன் அந்த விளையாட்டில் அதிக வெற்றி புள்ளிகள் பெற்றிருந்தார்
06:41
than the best two players combined.
173
401471
2000
இந்த விளையாட்டின் சிறந்த 2 விளையாட்டு வீரர்களின் மொத்த வெற்றி புள்ளிகளை விடவும் அதிகமாக பெற்றிருந்தார்
06:43
It got this query correct:
174
403471
2499
நான் கேள்வியை சரியாக தான் கேட்டேன்
06:45
"A long, tiresome speech
175
405970
2085
"ஒரு நீண்ட சோர்வூட்டும் உரை"
06:48
delivered by a frothy pie topping,"
176
408055
2152
ஒரு குறுக்கெழுத்து புதிருக்கான துப்பு இது
06:50
and it quickly responded, "What is a meringue harangue?"
177
410207
2796
உடன் அது பதிலளித்தது " மேரின்க்யு ஹரன்க்யு?"
06:53
And Jennings and the other guy didn't get that.
178
413003
2635
ஜென்னிங்க்சுக்கோ அல்லது அடுத்தவருக்கோ இது தெரிந்திருக்கவில்லை
06:55
It's a pretty sophisticated example of
179
415638
1926
இது கணினிகள், மனிதர்கள் பேசும் அதி நவீன விஷயங்களை
06:57
computers actually understanding human language,
180
417564
1914
புரிந்து கொள்கிறது என்பதற்கு ஒரு எடுத்துகாட்டு,
06:59
and it actually got its knowledge by reading
181
419478
1652
இன்னும் சொல்லபோனால் இந்த அறிவை கணினிகள்,
07:01
Wikipedia and several other encyclopedias.
182
421130
3785
விக்கிபீடியா மற்றும் இதர கலைக்களஞ்சியங்களை படித்து தெரிந்து கொண்டிருக்கிறது.
07:04
Five to 10 years from now,
183
424915
2133
இன்னும் ஐந்திலிருந்து பத்து வருடங்களில்,
07:07
search engines will actually be based on
184
427048
2184
இணையதள தேடல் பொறி சொற் கூட்டமைப்பின் அல்லது
07:09
not just looking for combinations of words and links
185
429232
2794
தொடர்பின் அடிப்படையில் மட்டும் இயங்காது
07:12
but actually understanding,
186
432026
1914
ஆனால் உண்மையான புரிதலில் இயங்கும்
07:13
reading for understanding the billions of pages
187
433940
2411
கோடிகணக்கான இணையதள பக்கங்களையும்
07:16
on the web and in books.
188
436351
2733
புத்தகங்களையும் படித்து தெரிந்து கொண்ட புரிதல்களாக இருக்கும்
07:19
So you'll be walking along, and Google will pop up
189
439084
2616
நீங்கள் நடந்து கொண்டிருக்கும் போதே கூகிள் உங்கள் முன் தோன்றி சொல்லலாம்
07:21
and say, "You know, Mary, you expressed concern
190
441700
3081
" மேரி ,நீங்கள் ஒரு மாதம் முன்பு கவலை கொண்டிருந்தீர்கள்.
07:24
to me a month ago that your glutathione supplement
191
444781
3019
உங்களின் க்ளுடதியோன் குறைநிரப்பு
07:27
wasn't getting past the blood-brain barrier.
192
447800
2231
இரத்தத்திற்கும் மூளைக்குமான அரணை தாண்டவில்லை" என்று.
07:30
Well, new research just came out 13 seconds ago
193
450031
2593
சரியாக 13 நொடிகளுக்கு முன் இது குறித்து ஒரு புது ஆய்வு வெளி வந்துள்ளது
07:32
that shows a whole new approach to that
194
452624
1711
இது ஒரு புதிய அணுகுமுறையை வெளிபடுத்துகிறது
07:34
and a new way to take glutathione.
195
454335
1993
க்ளுடதியோன் எடுத்து கொள்வதற்கான ஒரு புதிய முறை
07:36
Let me summarize it for you."
196
456328
2562
அதை நான் உங்களுக்கு சுருக்கமாக சொல்கிறேன்."
07:38
Twenty years from now, we'll have nanobots,
197
458890
3684
இன்னும் 20 ஆண்டுகளுக்கு பின்பு நம்மிடையே நாநோபோட்கள் தோன்றலாம்
07:42
because another exponential trend
198
462574
1627
இன்னொரு அடுக்குகுறி போக்கு என்று எடுத்து கொண்டால்
07:44
is the shrinking of technology.
199
464201
1615
தொழில்நுட்ப சுருங்கலை சொல்லலாம்.
07:45
They'll go into our brain
200
465816
2370
அவைகள் நமது மூளைக்குள் செலுத்தப்படலாம்,
07:48
through the capillaries
201
468186
1703
இரத்த நுண் குழாய்கள் மூலம்
07:49
and basically connect our neocortex
202
469889
2477
அடிப்படையில் பார்த்தீர்களானால் நமது புதிய புறணி
07:52
to a synthetic neocortex in the cloud
203
472366
3185
மேக கணினியில் உள்ள ஒரு செயற்கை புறணியுடன் இணைக்கப்படும்
07:55
providing an extension of our neocortex.
204
475551
3591
சொல்லபோனால் நமது புதிய புறணிக்கு ஒரு நீட்சி அமைப்பு அது
07:59
Now today, I mean,
205
479142
1578
நான் சொல்வது என்னவென்றால்
08:00
you have a computer in your phone,
206
480720
1530
இன்று உங்கள் கைபேசியில் ஒரு கணினி இருக்கிறது
08:02
but if you need 10,000 computers for a few seconds
207
482250
2754
ஆனால் சில் நொடிகளுக்கு உங்களுக்கு 10,000 கணினிகள்
08:05
to do a complex search,
208
485004
1495
ஒரு சிக்கலான தேடலுக்கு தேவைபட்டால்
08:06
you can access that for a second or two in the cloud.
209
486499
3396
ஒரு சில நொடிகளுக்கு உங்களால் மேக கணினி மூலம் அவைகளை அணுகலாம்
08:09
In the 2030s, if you need some extra neocortex,
210
489895
3095
2030 ஆம் ஆண்டு உங்களுக்கு புதிய புறணியின் தேவை அதிகமாக இருந்தால்
08:12
you'll be able to connect to that in the cloud
211
492990
2273
உங்கள் மூளையில் இருந்து நேரடியாக,
08:15
directly from your brain.
212
495263
1648
மேக கணினிகளை தொடர்பு கொள்ள முடியும்
08:16
So I'm walking along and I say,
213
496911
1543
நடந்துகொண்டே என்னால் சொல்ல முடியும்
08:18
"Oh, there's Chris Anderson.
214
498454
1363
" க்றிஸ் ஆண்டெர்சன் அங்கிருக்கிறார்.
08:19
He's coming my way.
215
499817
1525
அவர் என்னை நோக்கி வந்து கொண்டிருக்கிறார்
08:21
I'd better think of something clever to say.
216
501342
2335
அவரிடம் புத்திசாலிதனமாக எதவாவது சொல்ல வேண்டும்
08:23
I've got three seconds.
217
503677
1524
எனக்கு 3 நொடிகள் அவகாசமே உள்ளது
08:25
My 300 million modules in my neocortex
218
505201
3097
எனது புதிய புறணியின் 300 மில்லியன் கட்டகங்களால்
08:28
isn't going to cut it.
219
508298
1240
ஏதும் செய்ய முடியாது
08:29
I need a billion more."
220
509538
1246
எனக்கு மேலும் கோடிக்கணக்கான கட்டகங்கள் தேவை "
08:30
I'll be able to access that in the cloud.
221
510784
3323
மேக கணினியில் உள்ள கட்டகங்களை என்னால் தொடர்பு கொள்ள முடியும்
08:34
And our thinking, then, will be a hybrid
222
514107
2812
அப்பொழுது நமது சிந்தனை கலப்பினை சிந்தனையாக மாறும்
08:36
of biological and non-biological thinking,
223
516919
3522
உயிரியல் சார்ந்த சிந்தனையும் உயிரியியல் சாராத சிந்தனையும் சேர்ந்த ஒரு கலப்பினம்
08:40
but the non-biological portion
224
520441
1898
ஆனால் உயிரியல் சாராத அந்த பகுதி
08:42
is subject to my law of accelerating returns.
225
522339
2682
எனது முடுக்கு விளைவுகளின் விதிகளுக்கு உட்பட்டதாக இருக்கும்
08:45
It will grow exponentially.
226
525021
2239
08:47
And remember what happens
227
527260
2016
நினைவில் கொள்ளுங்கள்.
08:49
the last time we expanded our neocortex?
228
529276
2645
கடந்த முறை புதிய புறணியை விரிவு படுத்திய போது என்ன நடந்தது?
08:51
That was two million years ago
229
531921
1426
அது நடந்தது 200 மில்லியன் ஆண்டுகளுக்கு முன்பு
08:53
when we became humanoids
230
533347
1236
அப்பொழுது தான் நாம் மனிதர்களானோம்
08:54
and developed these large foreheads.
231
534583
1594
இந்த விரிந்த நெற்றி அப்பொழுது தான் உருவானது.
08:56
Other primates have a slanted brow.
232
536177
2583
மற்ற உயர் விலங்கினங்களுக்கு புருவம் சாய்வாக இருக்கும்.
08:58
They don't have the frontal cortex.
233
538760
1745
அவைகளுக்கு முகப்பு புறணி கிடையாது.
09:00
But the frontal cortex is not really qualitatively different.
234
540505
3685
ஆனால் முகப்பு புறணியில் தரம் சார்ந்த வேறுபாடு ஏதும் இல்லை.
09:04
It's a quantitative expansion of neocortex,
235
544190
2743
அது புதிய புறணியின் அளவு சார்ந்த ஒரு விரிவாக்கம் மட்டுமே
09:06
but that additional quantity of thinking
236
546933
2703
அனால் அந்த அதிக அளவு சிந்தனை திறன் தான்.
09:09
was the enabling factor for us to take
237
549636
1779
ஒரு காரணியாக இருந்து நமக்கு
09:11
a qualitative leap and invent language
238
551415
3346
ஒரு தரமான பாய்ச்சலுக்கு உதவியது
09:14
and art and science and technology
239
554761
1967
மொழி,கலை,அறிவியல்,தொழில்நுட்பம்
09:16
and TED conferences.
240
556728
1454
மற்றும் TED கருத்தரங்கம் போன்றவை கண்டுபிடிக்க உதவி இருக்கிறது
09:18
No other species has done that.
241
558182
2131
வேறு எந்த இனமும் இதை செய்யவில்லை
09:20
And so, over the next few decades,
242
560313
2075
இன்னும் அடுத்த சில பத்தாண்டுகளில்
09:22
we're going to do it again.
243
562388
1760
நாம் இதை மீண்டும் செய்ய போகிறோம்
09:24
We're going to again expand our neocortex,
244
564148
2274
நமது புதிய புறணியை மீண்டும் விரிவு படுத்த போகிறோம்.
09:26
only this time we won't be limited
245
566422
1756
ஆனால் இந்த முறை அது ஒரு நிலையான
09:28
by a fixed architecture of enclosure.
246
568178
4280
கட்டமைப்பு அடைப்பின் வரம்புக்கு உட்பட்டதாக இருக்காது,
09:32
It'll be expanded without limit.
247
572458
3304
எந்த வரம்பும் இல்லாமல் அது விரிவாக்கப்படும்.
09:35
That additional quantity will again
248
575762
2243
அந்த கூடுதல் அளவு தான் மீண்டும்
09:38
be the enabling factor for another qualitative leap
249
578005
3005
பண்பாடு மற்றும் தொழில்நுட்ப துறைகளில்
09:41
in culture and technology.
250
581010
1635
ஒரு தரமான பாய்ச்சலுக்கான காரணியாக இருக்கும்.
09:42
Thank you very much.
251
582645
2054
மிக்க நன்றி
09:44
(Applause)
252
584699
3086
(கை தட்டல்)
இந்த இணையதளம் பற்றி

ஆங்கிலம் கற்க பயனுள்ள YouTube வீடியோக்களை இந்த தளம் உங்களுக்கு அறிமுகப்படுத்தும். உலகெங்கிலும் உள்ள சிறந்த ஆசிரியர்களால் கற்பிக்கப்படும் ஆங்கில பாடங்களை நீங்கள் காண்பீர்கள். ஒவ்வொரு வீடியோ பக்கத்திலும் காட்டப்படும் ஆங்கில வசனங்களில் இருமுறை கிளிக் செய்து, அங்கிருந்து வீடியோவை இயக்கவும். வசனங்கள் வீடியோ பிளேபேக்குடன் ஒத்திசைவாக உருட்டும். உங்களிடம் ஏதேனும் கருத்துகள் அல்லது கோரிக்கைகள் இருந்தால், இந்த தொடர்பு படிவத்தைப் பயன்படுத்தி எங்களைத் தொடர்பு கொள்ளவும்.

https://forms.gle/WvT1wiN1qDtmnspy7