A funny look at the unintended consequences of technology | Chuck Nice

269,712 views ・ 2018-02-27

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Pedram Pourasgari Reviewer: Nima Pourreza
00:12
Future tech always comes with two things: promise
0
12863
4205
فناوری‌های آینده همواره با دو چیز همراه هستند: نوید دادن
00:17
and unintended consequences.
1
17092
2104
و پیامد‌های ناخواسته.
00:19
And it's those consequences that I want to explore.
2
19220
3406
و من می‌خواهم در مورد آن پیامدها صحبت کنم.
00:23
And before we get to how future tech may affect us,
3
23101
3723
قبل از این که به چگونگی تأثیر فناوری‌های آینده بر ما بپردازیم،
00:26
I'd like to spend a little time exploring the unintended consequences
4
26848
3749
می‌خواهم کمی در مورد پیامد‌های ناخواسته
00:30
of some of our recent tech,
5
30621
1567
برخی از فناوری‌های اخیر صحبت کنم،
00:32
namely, social media.
6
32212
2022
از جمله رسانه‌های اجتماعی.
00:34
Social media, a few short years ago, was the tech of future you.
7
34885
4632
چند سال قبل، رسانه‌های اجتماعی یک فناوری مربوط به آینده به شمار می‌رفتند.
00:39
Now it just is you.
8
39541
2090
ولی الان فناوری زمان حال شماست.
00:42
Social media was supposed to bring us together
9
42125
2827
رسانه‌های اجتماعی قرار بود ما را به همدیگر نزدیک کنند
00:44
in ways we could never imagine.
10
44976
2443
به گونه‌ای که هرگز نمی‌توانستیم آن را تصور کنیم.
00:47
And the predictors were correct.
11
47443
1769
و پیش‌بینی‌ها درست بودند.
00:50
These three girls are talking to one another
12
50412
2842
این سه دختر در حال صحبت با هم هستند
00:53
without the awkward discomfort of eye contact.
13
53278
3034
بدون ارتباط چشمی ناراحت‌کننده و ناخوشایند
00:56
(Laughter)
14
56336
1329
(صدای خنده)
00:57
I call that advancement.
15
57689
2080
من به این می‌گویم پیشرفت.
01:01
We were supposed to be caught up in a communication tsunami,
16
61533
3508
ما قرار بود درگیر یک سونامی ارتباطات شویم
01:05
the likes of which the world has never seen.
17
65065
2840
که دنیا قبلاً مانند آن را ندیده بود.
01:07
And that did happen.
18
67929
1745
که اتفاق افتاد
01:09
And so did this.
19
69698
1781
و این هم اتفاق افتاد.
01:13
(Sings) One of these things is not like the other.
20
73153
3044
(آواز می‌خواند) هیچ کدام از این‌ها شبیه هم نیستند.
01:16
(Speaks) Now, look at this picture.
21
76221
1697
حالا به این عکس نگاه کنید.
01:17
If you picked the guy with the book, you’re wrong --
22
77942
2464
اگر آقایی که کتاب دارد را انتخاب کنید، اشتباه کرده‌اید --
01:20
or, as a certain president would say, "Wrong!"
23
80430
2764
یا همانطور که یک رئیس جمهور خاص [ترامپ] می‌گوید: «اشتباهه!»
01:23
(Laughter)
24
83218
1922
(صدای خنده)
01:27
Clearly, three of these guys are reading,
25
87496
2287
مشخص است که این افراد در حال خواندن هستند
01:29
and one guy, on the end, is listening to music
26
89807
2380
و یکی از آن‌ها، که در آخر نشسته در حال گوش دادن به موزیک
01:32
and playing "Candy Crush."
27
92211
1499
و «کندی کراش» بازی کردن است.
01:33
(Laughter)
28
93734
1551
(صدای خنده)
01:35
So are we more connected,
29
95862
1583
پس ارتباط ما با هم بیشتر شده؟
01:37
or are we just more connected to our devices?
30
97469
3645
یا فقط به دستگاه‌هایمان مرتبط تر شده‌ایم؟
01:42
Social media was supposed to place us in a veritable town square,
31
102156
3405
رسانه‌های اجتماعی قرار بود محیطی شبیه به محیط واقعی شهر ایجاد کنند
01:45
where we could engage one another with challenging ideas and debates.
32
105585
4739
که ما بتوانیم همدیگر را درگیر ایده‌ها و بحث‌های چالش برانگیز کنیم.
01:50
And instead what we got were trolls.
33
110348
2890
به جای آن، ترول‌ها (پست‌های طنز) نصیبمان شد.
01:53
This is an actual tweet that I received.
34
113262
3577
این یک توئیت واقعی است که من دریافت کرده‌ام:
01:58
"Chuck, no one wants to hear your stupid, ill-informed political views!
35
118220
4154
«چاک، هیچ کس نمی‌خواهد دیدگاه‌های احمقانه و غلط سیاسی تو را بشنود!
02:02
I hope you get leprosy and die.
36
122398
2321
امیدوارم جذام بگیری و بمیری.
02:04
Love, Dad"
37
124743
1408
با عشق، پدرت»
02:06
(Laughter)
38
126175
1667
(صدای خنده)
02:08
Now, the great thing about that tweet if you look at it,
39
128796
2653
حالا، نکته خوب این توئیت اگر درست به آن نگاه کنید
02:11
just like most trolls, it's not that bad,
40
131473
1987
این است که مثل بقیه ترول‌ها آنقدرها هم بد نیست
02:13
because he wished "leporsy" on me instead of "leprosy,"
41
133484
3670
چون به جای «جذام» برایم «جضام» آرزو کرده
02:17
and "leporsy" is not dangerous at all.
42
137178
2841
و «جضام» اصلاً خطرناک نیست.
02:20
(Laughter)
43
140043
1581
(صدای خنده)
02:21
(Applause)
44
141648
1660
(صدای تشویق)
02:26
Along with trolls, we got a brand new way of torturing teenagers --
45
146333
4517
به همراه ترول‌ها، با شکل جدیدی از شکنجه نوجوانان هم روبرو شده‌ایم:
02:30
cyberbullying.
46
150874
1365
زورگیری مجازی.
02:32
A concept that my 75-year-old mother just can't seem to wrap her head around.
47
152848
4933
مفهومی که مادر ۷۵ ساله من قادر به درکش نیست.
02:38
"So, uh, did they hit him?"
48
158441
2102
«خب، پس او را کتک زدند؟»
02:40
"No, Mom, they didn't hit him."
49
160567
1682
«نه مامان، آن‌ها کتکش نزدند.»
02:42
"Did they take his money?"
50
162619
1316
«آیا پولش را گرفتند؟»
02:43
"No, Mom, they didn't take his money."
51
163959
1866
«نه مامان، پولش را نگرفتند.»
02:45
"Did they put his face in the toilet?"
52
165849
1856
«آیا صورتش را در توالت کردند؟»
02:47
"No, Mom, they didn't --"
53
167729
1219
«نه مامان، نکردند.»
02:48
"Well, what did they do?"
54
168972
1211
«خب پس چه کارش کردند؟»
02:50
"They attacked him on the internet."
55
170207
1879
«آن‌ها در اینترنت به او حمله کردند.»
02:52
"Attacked him on the internet?"
56
172800
1521
«در اینترنت به او حمله کردند؟»
02:54
(Laughter)
57
174345
1001
(صدای خنده)
02:55
"Well, why don't you just turn off the internet?"
58
175370
2342
«خب، چرا فقط اینترنت را خاموش نمی‌کنید؟»
02:57
(Laughter)
59
177736
1289
(صدای خنده)
02:59
"Your whole generation is a bunch of wussies."
60
179049
2542
«نسل شما خیلی سوسول هستند.»
03:01
(Laughter)
61
181615
1505
(صدای خنده)
03:03
She's got a point.
62
183660
1150
حق دارد.
03:04
(Laughter)
63
184834
1339
(می‌خندد)
03:06
She's got a point.
64
186197
1159
حق دارد.
03:07
And I don't even want to talk about what social media has done to dating.
65
187380
3618
و من حتی نمی‌خواهم در مورد بلایی که رسانه‌های اجتماعی بر سر دوست‌یابی آوردند صحبت کنم.
03:11
I was on Grindr until I found out it wasn't a sandwich app.
66
191491
4901
من عضو گریندر بودم، تا زمانی که فهمیدم یک برنامه سفارش ساندویچ نیست.
03:16
(Laughter)
67
196416
2083
(صدای خنده)
03:19
And I can't even tell you about Tinder,
68
199908
3222
و حتی نمی‌توانم در مورد تیندر چیزی بگویم.
03:23
except for the fact that if you think there is a limit
69
203154
3900
به جز این حقیقت که اگر فکر می‌کنید محدودیتی برای تعداد رابطه جنسی
03:27
to the amount of anonymous sex we can have on this planet,
70
207078
3886
که می‌توانیم به صورت ناشناس روی زمین داشته باشیم وجود دارد،
03:30
you are sadly mistaken.
71
210988
1817
متاسفانه اشتباه می‌کنید.
03:32
(Laughter)
72
212829
1001
(صدای خنده)
03:33
So where do we go from here?
73
213854
1879
پس به کجا می‌رویم؟
03:35
Well, let's just jump right in and play the hits.
74
215757
2367
خب، بگذارید بدون حاشیه به مهم‌ترین‌ها بپردازیم.
03:38
Driverless cars.
75
218148
1151
خودرو‌های بدون راننده.
03:39
Something that has already been around for many years,
76
219323
2672
چیزی که از سال‌ها قبل وجود داشته است،
03:42
just without the assistance of computers.
77
222019
2161
فقط بدون این که در آن از کامپیوتر استفاده شده باشد.
03:44
(Laughter)
78
224204
2054
(صدای خنده)
03:47
(Applause)
79
227352
2359
(صدای تشویق)
03:50
Because for years, we have been driving while texting,
80
230733
3980
چون سال‌هاست که ما همزمان با رانندگی پیام ارسال می‌کنیم،
03:54
putting on makeup,
81
234737
1578
آرایش می‌کنیم،
03:56
shaving, reading -- actually reading --
82
236339
3082
اصلاح می‌کنیم، مطالعه می‌کنیم -- واقعاً مطالعه می‌کنیم --
03:59
that would be me.
83
239445
1162
که من این کار را می‌کنم.
04:00
(Laughter)
84
240631
1013
(صدای خنده)
04:01
The other thing is that since driverless cars will be shared,
85
241668
2999
علاوه بر این، از آن‌جایی که خودروهای بدون راننده به اشتراک گذاشته می‌شوند
04:04
most people won't own cars,
86
244691
1316
بیشتر افراد مالک خودرو نخواهند بود،
04:06
and that means the DMV will go away.
87
246031
2318
و این یعنی اداره وسایل نقلیه موتوری از بین خواهند رفت.
اداره وسایل نقلیه موتوری -- می‌دانم الان با خودتان می‌گویید --
04:09
The DMV -- I know what you're saying right now.
88
249000
2260
04:11
"There's no way this guy is going to stand up here
89
251284
2367
«ممکن نیست این پسر اینجا بایستید
04:13
and make a case for the DMV."
90
253675
1425
و به اداره وسایل نقلیه موتوری گیر بدهد.»
04:15
Well, I don't know about you, but I do not want to live in a world
91
255124
3173
خب، شما را نمی‌دانم، ولی من نمی‌خواهم در دنیایی زندگی کنم
04:18
where harsh fluorescent lights,
92
258321
2278
که چراغ‌های فلورسنت آزاردهنده،
04:20
endless lines,
93
260623
1898
صف‌های طولانی،
04:22
terrible forms to fill out
94
262545
1836
فرم‌های افتضاح برای پر کردن
04:24
and disaffected, soulless bureaucrats remind me
95
264405
3975
و کارمندان بدون عاطفه و ناراضی به من یادآوری کنند
04:28
that I am pretty damn lucky not to work here.
96
268404
3442
که من چقدر خوش شانس هستم که اینجا کار نمی‌کنم.
04:31
(Laughter)
97
271870
1150
(صدای خنده)
04:33
That is the real service they provide.
98
273490
2250
این خدمت واقعی است که آن‌ها ارائه می‌کنند.
04:36
The DMV:
99
276458
1517
اداره وسایل نقلیه موتوری:
04:37
come for the registration renewal,
100
277999
2061
برای تمدید سند بیایید،
04:40
stay for the satisfaction of knowing you made some pretty good life choices.
101
280084
4251
آنقدر بمانید تا متوجه شوید چه تصمیمات درستی در زندگی‌تان گرفته‌اید
04:44
(Laughter)
102
284359
1847
(صدای خنده)
04:49
Nobody will own their car in the future,
103
289060
1998
در آینده، هیچ کسی مالک خودروی خود نیست،
04:51
and that means teenagers will not have a place to make out.
104
291082
3046
و این یعنی نوجوانان جایی برای عشق بازی نخواهند داشت.
04:55
So you know what that means.
105
295546
1373
می‌دانید این یعنی چه؟
04:56
That means they will order driverless cars to do just that.
106
296943
3230
یعنی آن‌ها خودرو‌های بدون راننده سفارش می‌دهند تا این کار را در آن‌ها انجام دهند.
05:00
I do not want to step into a vehicle and ask the question:
107
300602
4365
من نمی‌خواهم در یک خودرو بنشینم و این سوال را بپرسم که:
05:04
"Why does this car smell like awkwardness, failure and shame?"
108
304991
4793
«چرا این ماشین بوی بی‌دست و پایی، شکست و شرم می‌دهد؟»
05:09
(Laughter)
109
309808
2158
(صدای خنده)
05:12
If I want to ask that question, I'll walk into my own bedroom.
110
312916
3044
اگر می‌خواستم این سوال را بپرسم، می‌رفتم به اتاق خواب خودم.
05:15
(Laughter)
111
315984
1381
(صدای خنده)
05:17
So what else do we have to look forward to?
112
317389
2010
خب دیگر باید منتظر چه چیزی باشیم؟
05:19
That's right, artificial intelligence.
113
319423
1824
درست است، هوش مصنوعی.
05:21
Artificial intelligence, yes.
114
321271
2291
هوش مصنوعی، بله.
05:23
You know, there was a time when artificial intelligence was a joke.
115
323586
3189
می‌دانید، زمانی بود که هوش مصنوعی یک جوک بود.
05:26
I mean, literally a quip that you would hear at a cocktail party
116
326799
3632
مثل یک جوک بود که می‌توانستید در یک مهمانی بشنوید
05:30
when somebody would bring it up in conversation:
117
330455
2361
زمانی که یک نفر در میان یک مکالمه به آن اشاره می‌کرد:
05:32
"Artificial intelligence.
118
332840
1932
«هوش مصنوعی.
05:34
The only real artificial intelligence is our American Congress.
119
334796
3556
تنها هوش مصنوعی واقعی، کنگره آمریکاست.
05:38
Ha, ha, ha, ha, ha."
120
338376
2028
ها‌، ها، ها‌، ها، ها.»
05:40
Well, it's not funny anymore.
121
340428
1417
خب، این موضوع دیگر خنده‌دار نیست.
05:41
(Laughter)
122
341869
2039
(صدای خنده)
05:48
Stephen Hawking, Elon Musk and Bill Gates have all gone on record
123
348108
3551
استیون هاوکینگ، ایلان ماسک و بیل گیتس همگی در مصاحبه‌های خود
05:51
expressing grave reservations about artificial intelligence.
124
351683
3956
خطرات هوش مصنوعی را بیان کرده‌اند.
05:55
That's like Jesus, Moses and Muhammad coming together and saying,
125
355663
3531
مثل این است که مسیح، موسی و محمد گرد هم آیند و بگویند،
05:59
"Guy, guys -- here's something we can all believe in."
126
359218
2790
«بچه‌ها، بچه‌ها، چیزی وجود دارد که همگی می‌توانیم به آن اعتقاد داشته باشیم.»
06:02
(Laughter)
127
362032
1022
(صدای خنده)
06:03
You might want to go with that, is all I'm saying.
128
363078
2413
ممکن است شما هم با آن موافق باشید، این چیزی است که من می‌گویم.
06:07
We are actually teaching machines how to think,
129
367310
4467
ما در واقع داریم به ماشین‌ها یاد می‌دهیم که چگونه فکر کنند،
06:11
how to understand our behavior,
130
371801
2224
چگونه رفتار ما را درک کنند،
06:14
how to defend themselves and even practice deception.
131
374049
3601
چگونه از خودشان دفاع کنند و حتی دیگران را فریب دهند.
06:18
What could possibly go wrong?
132
378904
1729
دقیقاً چه چیزی ممکن اشتباه از آب در بیاید؟
06:20
(Laughter)
133
380657
1591
(صدای خنده)
06:23
The one thing that's for sure:
134
383568
1828
یک چیز را می‌توان با اطمینان گفت:
06:25
the creation always despises its creator.
135
385420
3149
مخلوق همواره از خالق خود متنفر است.
06:29
OK?
136
389043
1193
درست است؟
06:30
The Titans rose up against the gods;
137
390260
2125
تایتان‌ها در مقابل خدایان قیام کردند؛
06:32
Lucifer against Jehovah.
138
392409
1732
لوسیفر (شیطان) در مقابل یهوه (خدا).
06:34
And anybody who has a teenager has heard these words:
139
394547
2782
و هر کسی که یک فرزند نوجوان داشته باشد، این کلمات را شنیده است:
06:37
"I hate you and you're ruining my life!
140
397353
2033
«من از تو متنفرم و تو زندگی من را خراب می‌کنی!
06:39
I hate you!"
141
399410
1150
از تو متنفرم!»
06:42
Now just imagine that sentiment with a machine that can outthink you
142
402325
4555
حالا تصور کنید این جمله را ماشینی بگوید که قدرت تفکری بیشتر از شما دارد
06:46
and is heavily armed.
143
406904
1843
و تا دندان مسلح است.
06:48
(Laughter)
144
408771
1511
(صدای خنده)
06:51
The result?
145
411074
1201
نتیجه؟
06:52
Absolutely.
146
412976
1202
مسلماً.
06:54
(Laughter)
147
414202
1456
(صدای خنده)
06:58
What we need to do before we perfect artificial intelligence
148
418973
3244
کاری که باید قبل از تکامل هوش مصنوعی انجام دهیم،
07:02
is perfect artificial emotions.
149
422241
2187
این است که احساسات مصنوعی را به تکامل برسانیم.
07:04
That way, we can teach the robots or machines
150
424793
3910
این گونه، می‌توانیم به ربات‌ها یا ماشین‌ها یاد بدهیم
07:08
how to love us unconditionally,
151
428727
2481
که چگونه بدون قید و شرط عاشق ما باشند،
07:11
so that when they figure out that the only real problem on this planet
152
431232
4525
تا زمانی که متوجه شدند تنها مشکل واقعی بر روی این سیاره
07:15
is us,
153
435781
1190
ما هستیم،
07:16
instead of destroying us --
154
436995
1716
به جای از بین بردن ما
07:18
which, by the way, is totally logical --
155
438735
3104
که البته کاملاً منطقی است،
07:21
they will find us adorable --
156
441863
2446
متوجه شوند چقدر نازنین هستیم.
07:24
(Laughter)
157
444333
1066
(صدای خنده)
07:25
like baby poop.
158
445423
1221
مانند مدفوع نوزاد.
07:26
(Laughter)
159
446668
1003
(صدای خنده)
07:27
"Oh my god, I just love the way you just destroyed the planet.
160
447695
3106
«اوه خدای من، من عاشق این هستم که شما چطور سیاره را نابود کردید.
07:30
I can't stay mad at you, you're so cute!
161
450825
2772
ولی نمی‌توانم از دستتان عصبانی باشم، شما خیلی ناز هستید!
07:33
You're so cute!"
162
453621
1222
شما خیلی ناز هستید!»
07:34
(Laughter)
163
454867
1160
(صدای خنده)
07:36
Can't talk about this without talking about robotics. OK?
164
456051
6925
نمی‌توان بدون صحبت از ربات‌ها در این مورد صحبت کرد، نه؟
یادتان می‌آید زمانی فکر می‌کردید رباتیک جذاب است؟
07:43
Remember when you thought robotics were cool?
165
463000
2121
07:45
I remember when I thought robotics were cool,
166
465145
2122
من یادم می‌آید زمانی فکر می‌کردم رباتیک جذاب است
07:47
until I figured out that they were going to take everybody's place,
167
467291
3160
تا وقتی که فهمیدم آن‌ها قرار است جای همه را بگیرند،
07:50
from the delivery guy down to the heart surgeon.
168
470475
2266
از پیک موتوری گرفته تا جراح قلب.
07:52
The one thing, though, that is very disappointing about robotics
169
472765
3029
البته یک نکته که در مورد رباتیک خیلی ناامید کننده است
07:55
is the holy grail of robotics,
170
475818
1432
مقصود نهایی رباتیک است،
07:57
and it hasn't even happened.
171
477274
1347
و این حتی اتفاق نیفتاده است.
07:58
I'm talking about the robot girlfriend,
172
478645
1939
من در مورد ربات دوست دختر صحبت می‌کنم،
08:00
the dream of one lonely geek in a windowless basement
173
480608
3608
آرزوی یک خوره‌ی کامپیوتر در یک زیرزمین بدون پنجره
08:04
who vowed one day: "I am going to marry my creation."
174
484240
3425
که روزی با خودش قسم خورد: «من با مخلوق خودم ازدواج می‌کنم.»
08:08
And there actually is a movement underway to stop this from happening,
175
488738
5027
و واقعاً یک جنبش در جریان است تا جلوی این اتفاق را بگیرد،
08:13
for fear of exploitation.
176
493789
2164
به خاطر ترس از بهره‌کشی.
08:16
And I, for one, am against that movement.
177
496653
2626
و من، به شخصه، مخالف این جنبش هستم.
08:20
I believe we should have robot girlfriends.
178
500224
2827
من بر این باورم که ما باید روزی دوست‌دختر‌های ربات داشته باشیم.
08:23
I just believe that they should come with a feminist protocol
179
503596
4245
فقط فکر می‌کنم آن‌ها باید یک پروتکل فمینیستی
08:27
and artificial intelligence,
180
507865
1879
و هوش مصنوعی داشته باشند،
08:29
so she can take one look at that guy and go, "I am too good for you.
181
509768
4205
تا بتوانند یک نگاه به آن پسر بیاندازد و بگوید: «تو در حد من نیستی،
08:33
I'm leaving."
182
513997
1302
من تو را ترک می‌کنم.»
08:35
(Laughter)
183
515323
1565
(صدای خنده)
08:36
(Applause)
184
516912
2036
(صدای تشویق)
08:40
And finally,
185
520371
1631
و در نهایت،
08:42
I have to talk about bioengineering,
186
522026
2182
من باید در مورد مهندسی زیستی صحبت کنم،
08:44
an area of science that promises to end disease before it even begins,
187
524714
6053
حوزه‌ای از علم که متعهد شده بیماری را قبل از شروع از بین ببرد،
08:51
to help us live longer, fuller, healthier lives.
188
531658
4420
تا به ما کمک کند زندگی طولانی‌تر، کامل‌تر و سالم‌تری داشته باشیم.
08:57
And when you couple that with implantable hardware,
189
537218
3122
و زمانی که آن را در کنار سخت‌افزارهای قابل کاشت در بدن قرار می‌دهید،
09:00
you are looking at the next incarnation of human evolution.
190
540364
4427
در واقع در حال نگاه کردن به تجسم بعدی تکامل انسان هستید.
09:04
And all of that sounds great,
191
544815
2316
و همه این‌ها عالی به نظر می‌رسند،
09:07
until you figure out where it's really going.
192
547155
2301
قبل از این که بفهمید نتایجش چه خواهند بود.
09:09
One place:
193
549480
1179
یک نتیجه:
09:11
designer babies,
194
551133
1319
بچه‌های طراحی‌شده،
09:13
where, no matter where you are on the globe
195
553317
2027
مهم نیست کجای جهان باشید
09:15
or what your ethnicity,
196
555368
1785
یا از چه قومی باشید،
09:17
babies will end up looking like that.
197
557177
2634
بچه‌ها این شکلی خواهند بود.
09:19
(Laughter)
198
559835
1596
(صدای خنده)
09:21
That boy is surprised
199
561455
2582
این پسر تعجب کرده است
09:24
because he just found out both his parents are black.
200
564061
3479
چون تازه فهمیده هم پدر و هم مادرش سیاه پوست هستند.
09:27
(Laughter)
201
567564
2708
(صدای خنده)
09:35
Can you imagine him at a cocktail party in 20 years?
202
575569
3168
می‌توانید او را در یک مهمانی در ۲۰ سال بعد تصور کنید؟
09:39
"Yeah, both my parents are black.
203
579429
1613
«آره، پدر و مادرم سیاه پوست هستند.
09:41
I mean, it's a little awkward at times,
204
581066
2199
منظورم اینه، بعضی وقت‌ها یک کم ضایع است،
09:43
but you should see my credit rating.
205
583289
1747
ولی باید شایستگی ذاتی‌ام را ببینی.
09:45
Impressive, very impressive."
206
585060
1723
عالیه، خیلی عالیه.»
09:46
(Laughter)
207
586807
1439
(صدای خنده)
09:49
Now, all of this seems scary,
208
589353
2340
حالا، همه این‌ها ترسناک به نظر می‌رسند،
09:51
and everybody in this room knows that it isn't.
209
591717
2647
و همه در این اتاق می‌دانند که در واقع این طور نیست.
09:54
Technology isn't scary.
210
594388
1462
تکنولوژی ترسناک نیست.
09:56
Never has been and it never will be.
211
596568
2915
هیچ وقت نبوده و هیچ وقت نخواهد بود.
10:00
What's scary is us
212
600113
2671
چیزی که ترسناک است ما هستیم
10:02
and what we will do with technology.
213
602808
1992
و کاری که با تکنولوژی خواهیم کرد.
10:05
Will we allow it to expose our humanity,
214
605332
3089
آیا به آن اجازه می‌دهیم که نشان‌دهنده جنبه انسانی ما باشد
10:09
showing our true selves
215
609334
2307
و خود ما را نشان دهد
10:11
and reinforcing the fact that we are indeed our brother's keeper?
216
611665
3844
و این واقعیت را تقویت کند که ما حقیقتاً محافظ برادر خود هستیم؟
10:16
Or will we allow it to reveal our deepest, darkest demons?
217
616240
5734
یا اینکه به آن اجازه می‌دهیم که تاریک‌ترین و عمیق‌ترین شیاطین درون ما را آشکار کند؟
10:22
The true question is not whether or not technology is scary.
218
622723
5157
سوال اصلی این نیست که تکنولوژی ترسناک هست یا نه.
10:28
The true question is:
219
628326
1285
سوال اصلی این است:
10:30
How human
220
630273
1152
شما چقدر
10:31
are you?
221
631874
1170
انسان هستید؟
10:33
Thank you.
222
633656
1151
متشکرم.
10:34
(Applause)
223
634831
3930
(صدای تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7