A funny look at the unintended consequences of technology | Chuck Nice

269,712 views ・ 2018-02-27

TED


Please double-click on the English subtitles below to play the video.

Prevodilac: Mirjana Čutura Lektor: Tijana Mihajlović
00:12
Future tech always comes with two things: promise
0
12863
4205
Технологија будућности увек подразумева две ствари:
обећање и непланиране последице.
00:17
and unintended consequences.
1
17092
2104
00:19
And it's those consequences that I want to explore.
2
19220
3406
Управо те последице желим да испитам.
00:23
And before we get to how future tech may affect us,
3
23101
3723
Пре него што стигнемо до тога
како ће технологија будућности можда утицати на нас,
00:26
I'd like to spend a little time exploring the unintended consequences
4
26848
3749
волео бих да накратко испитам непланиране последице
00:30
of some of our recent tech,
5
30621
1567
неких наших скорашњих технологија, то јест друштвених медија.
00:32
namely, social media.
6
32212
2022
00:34
Social media, a few short years ago, was the tech of future you.
7
34885
4632
Пре неколико година, друштвени медији били су технологија вашег будућег „ја“.
00:39
Now it just is you.
8
39541
2090
Сада су једноставно постали ваше „ја“.
00:42
Social media was supposed to bring us together
9
42125
2827
Требало је да нас друштвени медији повежу
00:44
in ways we could never imagine.
10
44976
2443
на начине које никада нисмо могли замислити.
00:47
And the predictors were correct.
11
47443
1769
Предвиђања су била тачна.
00:50
These three girls are talking to one another
12
50412
2842
Ове три девојке причају једна са другом
00:53
without the awkward discomfort of eye contact.
13
53278
3034
без чудне нелагодности коју доноси контакт очима.
00:56
(Laughter)
14
56336
1329
(Смех)
00:57
I call that advancement.
15
57689
2080
Зовем то напретком.
01:01
We were supposed to be caught up in a communication tsunami,
16
61533
3508
Требало је да будемо увучени у комуникацијски цунами
01:05
the likes of which the world has never seen.
17
65065
2840
какав свет није видео.
01:07
And that did happen.
18
67929
1745
А то се и догодило.
01:09
And so did this.
19
69698
1781
Баш као и ово.
01:13
(Sings) One of these things is not like the other.
20
73153
3044
(Певуши) Једна од ових ствари није налик другима.
01:16
(Speaks) Now, look at this picture.
21
76221
1697
(Говори) Погледајте ову слику.
01:17
If you picked the guy with the book, you’re wrong --
22
77942
2464
Ако сте одабрали момка са књигом, погрешили сте,
01:20
or, as a certain president would say, "Wrong!"
23
80430
2764
или, како би извесни председник рекао: „Погрешно!“
01:23
(Laughter)
24
83218
1922
(Смех)
01:27
Clearly, three of these guys are reading,
25
87496
2287
Очигледно је да тројица ових момака читају,
01:29
and one guy, on the end, is listening to music
26
89807
2380
а један момак, онај са леве стране, слуша музику и игра „Кенди краш“.
01:32
and playing "Candy Crush."
27
92211
1499
01:33
(Laughter)
28
93734
1551
(Смех)
01:35
So are we more connected,
29
95862
1583
Дакле, да ли смо више повезани
01:37
or are we just more connected to our devices?
30
97469
3645
или смо више повезани са својим уређајима?
01:42
Social media was supposed to place us in a veritable town square,
31
102156
3405
Требало је да нас друштвени медији доведу до стварног градског трга
01:45
where we could engage one another with challenging ideas and debates.
32
105585
4739
где бисмо могли да укључимо једни друге у изазовне идеје и дискусије.
01:50
And instead what we got were trolls.
33
110348
2890
Уместо тога смо добили тролове.
01:53
This is an actual tweet that I received.
34
113262
3577
Ово је стваран твит који сам примио.
01:58
"Chuck, no one wants to hear your stupid, ill-informed political views!
35
118220
4154
„Чак, нико не жели да слуша твоје глупе, погрешно информисане политичке погледе!
02:02
I hope you get leprosy and die.
36
122398
2321
Надам се да ћеш добити губу и умрети.
02:04
Love, Dad"
37
124743
1408
Воли те тата.“
02:06
(Laughter)
38
126175
1667
(Смех)
02:08
Now, the great thing about that tweet if you look at it,
39
128796
2653
Одлична ствар у вези са тим твитом ако га погледате,
02:11
just like most trolls, it's not that bad,
40
131473
1987
баш као већина тролова, није тако лош
02:13
because he wished "leporsy" on me instead of "leprosy,"
41
133484
3670
јер ми је пожелео „бубу“ уместо „губу“,
02:17
and "leporsy" is not dangerous at all.
42
137178
2841
а „буба“ уопште није опасна.
02:20
(Laughter)
43
140043
1581
(Смех)
02:21
(Applause)
44
141648
1660
(Аплауз)
02:26
Along with trolls, we got a brand new way of torturing teenagers --
45
146333
4517
Осим тролова, имамо и сасвим нови начин да мучимо тинејџере -
02:30
cyberbullying.
46
150874
1365
сајбер малтретирање.
02:32
A concept that my 75-year-old mother just can't seem to wrap her head around.
47
152848
4933
Идеју коју моја 75-годишња мајка једноставно не може да схвати.
02:38
"So, uh, did they hit him?"
48
158441
2102
„Па, да ли су га ударили?“
02:40
"No, Mom, they didn't hit him."
49
160567
1682
„Не, мама, нису га ударили.“
02:42
"Did they take his money?"
50
162619
1316
„Да ли су му узели новац?“
02:43
"No, Mom, they didn't take his money."
51
163959
1866
„Не, мама, нису му узели новац.“
02:45
"Did they put his face in the toilet?"
52
165849
1856
„Да ли су му забили главу у ве-це шољу?“
02:47
"No, Mom, they didn't --"
53
167729
1219
„Не, мама, нису.“
02:48
"Well, what did they do?"
54
168972
1211
„Па шта су урадили?“
02:50
"They attacked him on the internet."
55
170207
1879
„Напали су га на интернету.“
02:52
"Attacked him on the internet?"
56
172800
1521
„Напали га на интернету?“
02:54
(Laughter)
57
174345
1001
(Смех)
02:55
"Well, why don't you just turn off the internet?"
58
175370
2342
„Па зашто једноставно не искључиш интернет?“
02:57
(Laughter)
59
177736
1289
(Смех)
02:59
"Your whole generation is a bunch of wussies."
60
179049
2542
„Цела твоја генерација гомила је шмокљана.“
03:01
(Laughter)
61
181615
1505
(Смех)
03:03
She's got a point.
62
183660
1150
У праву је.
03:04
(Laughter)
63
184834
1339
(Смех)
03:06
She's got a point.
64
186197
1159
У праву је.
03:07
And I don't even want to talk about what social media has done to dating.
65
187380
3618
А да и не говорим о томе шта су друштвени медији учинили са забављањем.
03:11
I was on Grindr until I found out it wasn't a sandwich app.
66
191491
4901
Користио сам Гриндр све док нисам открио
да то није апликација везана за сендвиче.
03:16
(Laughter)
67
196416
2083
(Смех)
03:19
And I can't even tell you about Tinder,
68
199908
3222
Не могу ни да вам причам о Тиндеру,
03:23
except for the fact that if you think there is a limit
69
203154
3900
осим да споменем чињеницу да ако мислите да постоји граница
03:27
to the amount of anonymous sex we can have on this planet,
70
207078
3886
анонимног секса који можемо имати на овој планети,
03:30
you are sadly mistaken.
71
210988
1817
нажалост, грешите.
03:32
(Laughter)
72
212829
1001
(Смех)
03:33
So where do we go from here?
73
213854
1879
Куда нас ово води?
03:35
Well, let's just jump right in and play the hits.
74
215757
2367
Хајде да пређемо на ствар и позабавимо се бисерима.
03:38
Driverless cars.
75
218148
1151
Аутомобили без возача.
03:39
Something that has already been around for many years,
76
219323
2672
Нешто што већ много година постоји,
03:42
just without the assistance of computers.
77
222019
2161
али само без помоћи компјутера.
03:44
(Laughter)
78
224204
2054
(Смех)
03:47
(Applause)
79
227352
2359
(Аплауз)
03:50
Because for years, we have been driving while texting,
80
230733
3980
Већ годинама возимо док шаљемо поруке,
03:54
putting on makeup,
81
234737
1578
шминкамо се,
03:56
shaving, reading -- actually reading --
82
236339
3082
бријемо се, читамо - заиста читамо -
03:59
that would be me.
83
239445
1162
то сам ја.
04:00
(Laughter)
84
240631
1013
(Смех)
04:01
The other thing is that since driverless cars will be shared,
85
241668
2999
Друга ствар је да, пошто ће се аутомобили без возача делити,
04:04
most people won't own cars,
86
244691
1316
већина људи их неће поседовати,
04:06
and that means the DMV will go away.
87
246031
2318
што значи да ће СУП-ови нестати.
04:09
The DMV -- I know what you're saying right now.
88
249000
2260
СУП - знам шта сада мислите.
04:11
"There's no way this guy is going to stand up here
89
251284
2367
„Нема шансе да ће овај тип стајати овде и бранити СУП.“
04:13
and make a case for the DMV."
90
253675
1425
Па, не знам како ви, али ја не желим да живим у свету
04:15
Well, I don't know about you, but I do not want to live in a world
91
255124
3173
04:18
where harsh fluorescent lights,
92
258321
2278
у којем ме непријатне неонке,
04:20
endless lines,
93
260623
1898
бесконачни редови,
04:22
terrible forms to fill out
94
262545
1836
ужасни обрасци за испуњавање
04:24
and disaffected, soulless bureaucrats remind me
95
264405
3975
и незадовољне, бездушне бирократe
подсећају да сам прилично срећан што не радим овде.
04:28
that I am pretty damn lucky not to work here.
96
268404
3442
04:31
(Laughter)
97
271870
1150
(Смех)
04:33
That is the real service they provide.
98
273490
2250
То је стварна услуга коју они пружају.
04:36
The DMV:
99
276458
1517
СУП:
04:37
come for the registration renewal,
100
277999
2061
дођите да обновите регистрацију,
04:40
stay for the satisfaction of knowing you made some pretty good life choices.
101
280084
4251
останите због задовољства да сазнате
да сте направили неке прилично добре животне одлуке.
04:44
(Laughter)
102
284359
1847
(Смех)
04:49
Nobody will own their car in the future,
103
289060
1998
Нико неће поседовати кола у будућности,
04:51
and that means teenagers will not have a place to make out.
104
291082
3046
а то значи да тинејџери неће имати где да се приватавају.
04:55
So you know what that means.
105
295546
1373
Знате шта то значи.
04:56
That means they will order driverless cars to do just that.
106
296943
3230
То значи да ће наручити аутомобиле без возача да баш то раде.
05:00
I do not want to step into a vehicle and ask the question:
107
300602
4365
Не желим да уђем у возило и да се упитам:
05:04
"Why does this car smell like awkwardness, failure and shame?"
108
304991
4793
„Зашто овај аутомобил мирише на непријатност, неуспех и срамоту?“
05:09
(Laughter)
109
309808
2158
(Смех)
05:12
If I want to ask that question, I'll walk into my own bedroom.
110
312916
3044
Ако желим да поставим то питање, ући ћу у своју спаваћу собу.
05:15
(Laughter)
111
315984
1381
(Смех)
05:17
So what else do we have to look forward to?
112
317389
2010
Чему још можемо да се радујемо?
05:19
That's right, artificial intelligence.
113
319423
1824
Тако је, вештачкој интелигенцији.
05:21
Artificial intelligence, yes.
114
321271
2291
Вештачкој интелигенцији - да.
05:23
You know, there was a time when artificial intelligence was a joke.
115
323586
3189
Знате, некада давно вештачка интелигенција је била спрдња.
05:26
I mean, literally a quip that you would hear at a cocktail party
116
326799
3632
Буквално пошалица коју бисте чули на коктел забавама
05:30
when somebody would bring it up in conversation:
117
330455
2361
када би је неко споменуо у разговору:
05:32
"Artificial intelligence.
118
332840
1932
„Вештачка интелигенција.
05:34
The only real artificial intelligence is our American Congress.
119
334796
3556
Једина стварна вештачка интелигенција је наш Конгрес Сједињених Држава.
05:38
Ha, ha, ha, ha, ha."
120
338376
2028
Ха-ха-ха.“
05:40
Well, it's not funny anymore.
121
340428
1417
Па, више није смешно.
05:41
(Laughter)
122
341869
2039
(Смех)
05:48
Stephen Hawking, Elon Musk and Bill Gates have all gone on record
123
348108
3551
Стивен Хокинг, Илон Маск и Бил Гејтс званично су изјавили
05:51
expressing grave reservations about artificial intelligence.
124
351683
3956
да имају озбиљне сумње у вези са вештачком интелигенцијом.
05:55
That's like Jesus, Moses and Muhammad coming together and saying,
125
355663
3531
То је као када би се Исус, Мојсије и Мухамед ујединили и изјавили:
05:59
"Guy, guys -- here's something we can all believe in."
126
359218
2790
„Народе, народе, ево нечега у шта сви можемо да верујемо.“
06:02
(Laughter)
127
362032
1022
(Смех)
06:03
You might want to go with that, is all I'm saying.
128
363078
2413
Све што кажем је да можда желите то да прихватите.
06:07
We are actually teaching machines how to think,
129
367310
4467
Ми, у ствари, учимо машине да размишљају,
06:11
how to understand our behavior,
130
371801
2224
разумеју наше понашање,
06:14
how to defend themselves and even practice deception.
131
374049
3601
да се бране и чак да упражњавају обману.
06:18
What could possibly go wrong?
132
378904
1729
Шта би уопште могло да пође по злу?
06:20
(Laughter)
133
380657
1591
(Смех)
06:23
The one thing that's for sure:
134
383568
1828
Једно је сигурно -
06:25
the creation always despises its creator.
135
385420
3149
творевина увек презире свог ствараоца.
06:29
OK?
136
389043
1193
Зар не?
06:30
The Titans rose up against the gods;
137
390260
2125
Титани су се побунили против богова,
06:32
Lucifer against Jehovah.
138
392409
1732
Луцифер против Јехове.
06:34
And anybody who has a teenager has heard these words:
139
394547
2782
А свако ко има тинејџера чуо је ове речи:
06:37
"I hate you and you're ruining my life!
140
397353
2033
„Мрзим те и уништаваш ми живот!
06:39
I hate you!"
141
399410
1150
Мрзим те!“
06:42
Now just imagine that sentiment with a machine that can outthink you
142
402325
4555
Сада замислите то осећање у машини која вас може надмудрити
06:46
and is heavily armed.
143
406904
1843
и тешко је наоружана.
06:48
(Laughter)
144
408771
1511
(Смех)
06:51
The result?
145
411074
1201
Последица?
06:52
Absolutely.
146
412976
1202
Наравно.
06:54
(Laughter)
147
414202
1456
(Смех)
06:58
What we need to do before we perfect artificial intelligence
148
418973
3244
Пре него што усавршимо вештачку интелигенцију,
07:02
is perfect artificial emotions.
149
422241
2187
треба да усавршимо вештачке емоције.
07:04
That way, we can teach the robots or machines
150
424793
3910
На тај начин можемо научити роботе или машине
07:08
how to love us unconditionally,
151
428727
2481
како да нас безусловно воле,
07:11
so that when they figure out that the only real problem on this planet
152
431232
4525
тако да, када схвате да смо једини стварни проблем на овој планети
07:15
is us,
153
435781
1190
заправо ми,
07:16
instead of destroying us --
154
436995
1716
уместо да нас униште -
07:18
which, by the way, is totally logical --
155
438735
3104
што је, иначе, у потпуности логично -
07:21
they will find us adorable --
156
441863
2446
мислиће да смо неодољиви -
07:24
(Laughter)
157
444333
1066
(Смех)
07:25
like baby poop.
158
445423
1221
као бебина кака.
07:26
(Laughter)
159
446668
1003
(Смех)
07:27
"Oh my god, I just love the way you just destroyed the planet.
160
447695
3106
„О, Боже, баш ми се допада начин на који сте уништили планету.
07:30
I can't stay mad at you, you're so cute!
161
450825
2772
Не могу се љутити на вас; баш сте слатки.
07:33
You're so cute!"
162
453621
1222
Баш сте слатки.“
07:34
(Laughter)
163
454867
1160
(Смех)
07:36
Can't talk about this without talking about robotics. OK?
164
456051
6925
Не могу да причам о овом, а да не споменем роботику. Зар не?
07:43
Remember when you thought robotics were cool?
165
463000
2121
Сећате се када сте мислили да је роботика кул?
07:45
I remember when I thought robotics were cool,
166
465145
2122
Сећам се када сам ја мислио да је роботика кул
07:47
until I figured out that they were going to take everybody's place,
167
467291
3160
све док нисам схватио да ће они преузети свачије место,
од достављача све до кардиохирурга.
07:50
from the delivery guy down to the heart surgeon.
168
470475
2266
Ипак, оно што је веома разочаравајуће у вези са роботиком
07:52
The one thing, though, that is very disappointing about robotics
169
472765
3029
07:55
is the holy grail of robotics,
170
475818
1432
је свети грал роботике,
а то се још увек није ни догодило.
07:57
and it hasn't even happened.
171
477274
1347
07:58
I'm talking about the robot girlfriend,
172
478645
1939
Мислим на девојку-робота,
08:00
the dream of one lonely geek in a windowless basement
173
480608
3608
сан једног усамљеног штребера у подруму без прозора
08:04
who vowed one day: "I am going to marry my creation."
174
484240
3425
који се једног дана заклео: „Оженићу своју творевину.“
08:08
And there actually is a movement underway to stop this from happening,
175
488738
5027
У ствари, постоји иницијатива да се ово спречи
08:13
for fear of exploitation.
176
493789
2164
због страха од експлоатације.
08:16
And I, for one, am against that movement.
177
496653
2626
Ја сам заиста против те иницијативе.
08:20
I believe we should have robot girlfriends.
178
500224
2827
Верујем да треба да имамо девојке-роботе.
08:23
I just believe that they should come with a feminist protocol
179
503596
4245
Само верујем да треба да имају феминистички протокол
08:27
and artificial intelligence,
180
507865
1879
и вештачку интелигенцију,
08:29
so she can take one look at that guy and go, "I am too good for you.
181
509768
4205
тако да она може да баци поглед на тог момка и каже:
„Превише сам добра за тебе. Одох.“
08:33
I'm leaving."
182
513997
1302
08:35
(Laughter)
183
515323
1565
(Смех)
08:36
(Applause)
184
516912
2036
(Аплауз)
08:40
And finally,
185
520371
1631
И на крају
08:42
I have to talk about bioengineering,
186
522026
2182
морам да говорим о биоинжењерингу,
08:44
an area of science that promises to end disease before it even begins,
187
524714
6053
научном пољу које обећава да ће окончати болест пре него што се и развије,
08:51
to help us live longer, fuller, healthier lives.
188
531658
4420
да ће нам помоћи да имамо дуже, испуњеније и здравије животе.
08:57
And when you couple that with implantable hardware,
189
537218
3122
Када то укомбинујете са имплантабилним хардвером,
09:00
you are looking at the next incarnation of human evolution.
190
540364
4427
добијате следеће отеловљење људске еволуције.
09:04
And all of that sounds great,
191
544815
2316
Све то звучи одлично
09:07
until you figure out where it's really going.
192
547155
2301
док не схватите куда то стварно води.
09:09
One place:
193
549480
1179
На једно место:
09:11
designer babies,
194
551133
1319
дизајниране бебе,
09:13
where, no matter where you are on the globe
195
553317
2027
где ће, без обзира на то где на планети живите
09:15
or what your ethnicity,
196
555368
1785
или које сте етничке припадности,
09:17
babies will end up looking like that.
197
557177
2634
бебе на крају изгледати овако.
09:19
(Laughter)
198
559835
1596
(Смех)
09:21
That boy is surprised
199
561455
2582
Тај дечак је изненађен
09:24
because he just found out both his parents are black.
200
564061
3479
јер је управо схватио да су му оба родитеља црна.
09:27
(Laughter)
201
567564
2708
(Смех)
09:35
Can you imagine him at a cocktail party in 20 years?
202
575569
3168
Да ли га можете замислити на коктел забави за двадесет година?
09:39
"Yeah, both my parents are black.
203
579429
1613
„Да, оба моја родитеља су црна.
09:41
I mean, it's a little awkward at times,
204
581066
2199
Чујте, понекад је помало нелагодно, али треба да видите мој кредитни рејтинг.
09:43
but you should see my credit rating.
205
583289
1747
Импресиван, веома импресиван.“
09:45
Impressive, very impressive."
206
585060
1723
09:46
(Laughter)
207
586807
1439
(Смех)
09:49
Now, all of this seems scary,
208
589353
2340
Видите, све ово делује застрашујуће,
09:51
and everybody in this room knows that it isn't.
209
591717
2647
а сви у овој просторији знају да није.
09:54
Technology isn't scary.
210
594388
1462
Технологија није застрашујућа.
09:56
Never has been and it never will be.
211
596568
2915
Никада није била и никада неће бити.
10:00
What's scary is us
212
600113
2671
Оно што је застрашујуће смо ми
10:02
and what we will do with technology.
213
602808
1992
и оно што ћемо урадити са технологијом.
10:05
Will we allow it to expose our humanity,
214
605332
3089
Да ли ћемо јој дозволити да разоткрије нашу људскост
10:09
showing our true selves
215
609334
2307
и прикаже наше стварно „ја“
10:11
and reinforcing the fact that we are indeed our brother's keeper?
216
611665
3844
и нагласи чињеницу да смо заиста одговорни једни према другима?
10:16
Or will we allow it to reveal our deepest, darkest demons?
217
616240
5734
Или ћемо јој дозволити да открије наше најдубље, најцрње демоне?
10:22
The true question is not whether or not technology is scary.
218
622723
5157
Право питање није да ли је технологија застрашујућа или не.
10:28
The true question is:
219
628326
1285
Право питање је:
10:30
How human
220
630273
1152
Колико сте
10:31
are you?
221
631874
1170
људско биће?
10:33
Thank you.
222
633656
1151
Хвала.
10:34
(Applause)
223
634831
3930
(Аплауз)
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7