A fascinating time capsule of human feelings toward AI | Lucy Farey-Jones

53,158 views ・ 2020-04-14

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: trangia han Reviewer: My Den
Tôi đứng đây, vì tôi đã trải qua quá nhiều đêm thức trắng,
tôi lo lắng và tự hỏi cuối cùng thì bên nào sẽ thắng.
con người hay robot?
00:12
I'm here, because I've spent far too many nights lying awake,
0
12802
4571
Là nhà chiến lược công nghệ,
công việc của tôi liên quan đến việc thay đổi hành vi:
00:17
worrying and wondering who wins in the end.
1
17397
2486
hiểu lý do và cách thức con người thích nghi với công nghệ mới.
00:19
Is it humans or is it robots?
2
19907
2450
Và nghĩa là tôi sẽ thất vọng thôi
00:22
You see, as a technology strategist,
3
22918
1723
00:24
my job involves behavior change:
4
24665
1904
vì tôi biết tôi sẽ không sống để xem tất cả điều này sẽ kết thúc như thế nào.
00:26
understanding why and how people adopt new technologies.
5
26593
3096
Và trên thực tế, nếu người trẻ nhất xem video này của tôi là 14 tuổi
00:30
And that means I'm really frustrated
6
30101
2373
và người già nhất là 99 tuổi,
00:32
that I know I won't live to see how this all ends up.
7
32498
3460
như vậy,
ý thức tập thể của chúng tôi sẽ chỉ có 185 năm tuổi.
00:36
And in fact, if the youngest person watching this is 14
8
36577
3273
00:39
and the oldest, a robust 99,
9
39874
2813
Đó là khoảng thời gian rất ngắn
00:42
then together,
10
42711
1152
00:43
our collective consciousnesses span just 185 years.
11
43887
4174
để bạn nghĩ về sự tiến hóa và sự sống trên hành tinh này.
Hóa ra tất cả chúng ta, đều đang ở những chỗ ngồi rẻ tiền
00:48
That is a myopic pinprick of time
12
48593
3366
và không ai có thể sống đủ lâu để xem tất cả diễn ra như thế nào.
00:51
when you think of the evolution and the story of life on this planet.
13
51983
3492
Do đó, chúng tôi muốn có một giải pháp cho vấn đề này.
Chúng tôi muốn xem có cách nào đưa chúng ta vượt qua,
00:55
Turns out we're all in the cheap seats
14
55912
1825
00:57
and none of us will live to see how it all pans out.
15
57761
2992
thời điểm mà chúng ta đang ở hiện tại,
01:00
So at my company, we wanted a way around this.
16
60777
2348
để tìm hiểu tất cả những gì thay đổi.
Để làm được điều này, chúng tôi đã làm nghiên cứu trong số 1.200 người Mỹ
01:03
We wanted to see if there was a way to cantilever out,
17
63149
2738
01:05
beyond our fixed temporal vantage point,
18
65911
3008
đại diện của cuộc thống kê dân số Hoa Kỳ,
01:08
to get a sense of how it all shakes up.
19
68943
2270
chúng tôi đã hỏi một loạt các câu hỏi quan điểm
01:11
And to do this, we conducted a study amongst 1,200 Americans
20
71237
3977
về người máy và trí tuệ nhân tạo
cũng như những hành vi về cách tiếp nhận công nghệ mới.
01:15
representative of the US census,
21
75238
2150
01:17
in which we asked a battery of attitudinal questions
22
77412
2524
Chúng tôi có một nghiên cứu lớn
do đó có thể phân tích sự khác biệt giữa giới tính và thế hệ,
01:19
around robotics and AI
23
79960
1801
01:21
and also captured behavioral ones around technology adoption.
24
81785
3373
giữa tôn giáo và khuynh hướng chính trị,
thậm chí giữa chức năng công việc và đặc điểm tính cách.
01:26
We had a big study
25
86011
1285
Đây là một viên nang giới hạn thời gian về
01:27
so that we could analyze differences in gender and generations,
26
87320
2977
01:30
between religious and political beliefs,
27
90321
1968
điểm yếu của con người chúng ta
trong những ngày đầu của kỷ nguyên Robot.
01:32
even job function and personality trait.
28
92313
2769
Và tôi có năm phút để giải thích với bạn.
01:35
It is a fascinating, time-bound time capsule
29
95106
3503
Trước tiên, bạn phải biết rằng chúng tôi đã phân tích một danh sách
01:38
of our human frailty
30
98633
1666
01:40
in this predawn of the robotic era.
31
100323
2586
những viễn cảnh về robot trí tuệ nhân tạo hiện tại và tiềm năng.
01:43
And I have five minutes to tell you about it.
32
103220
2278
01:46
The first thing you should know is that we brainstormed
33
106260
2579
Những viễn này xoay quanh hình ảnh hàng ngày,
01:48
a list of scenarios of current and potential AI robotics.
34
108863
6227
vậy có ai biết robot lau dọn nhà không?
Thông qua sự tinh nghịch,
ý tưởng về một con robot trông thú cưng, hoặc là một luật sư robot,
01:55
They ran the spectrum from the mundane,
35
115693
2542
hoặc một con robot tình dục.
01:58
so, a robot house cleaner, anyone?
36
118259
1976
Ngay cả những ý tưởng đáng sợ như trở thành một người máy,
02:00
Through to the mischievous,
37
120259
1302
02:01
the idea of a robot pet sitter, or maybe a robot lawyer,
38
121585
3095
kết hợp con người và robot,
hoặc cập nhật bộ não của bạn để nó sống tiếp sau khi bạn chết.
02:04
or maybe a sex partner.
39
124704
1533
02:06
Through to the downright macabre, the idea of being a cyborg,
40
126553
2921
Chúng tôi biểu thị mức độ thoải mái của con người với các tình huống khác nhau.
02:09
blending human and robot,
41
129498
1293
02:10
or uploading your brain so it could live on after your death.
42
130815
3881
Thực tế có 31 tình huống ở nghiên cứu này,
nhưng để dễ hiểu, tôi sẽ chỉ cho bạn một vài trong số chúng.
02:15
And we plotted people's comfort levels with these various scenarios.
43
135045
3897
Bạn chắc chắn sẽ nhận thấy mảng lớn màu đỏ này trước tiên.
02:18
There were actually 31 in the study,
44
138966
1730
Người Mỹ không thấy thoải mái với những ý tưởng này.
02:20
but for ease, I'm going to show you just a few of them here.
45
140720
3214
Đó là lý do tại sao thứ này được gọi là chỉ số không hài lòng,
02:24
The first thing you'll notice, of course, is the sea of red.
46
144355
2833
chứ không phải là chỉ số hài lòng.
Chỉ có hai điều người Mỹ thấy có thể chấp nhận được.
02:27
America is very uncomfortable with this stuff.
47
147212
2809
02:30
That's why we call it the discomfort index,
48
150901
2835
Một là robot dọn nhà thông minh
02:33
not the comfort index.
49
153760
1420
còn lại là robot giao hàng thông minh,
02:35
There were only two things the majority of America is OK with.
50
155204
3691
vì thế Dyson và Amazon, đó là lý do tại sao bạn nên nói chuyện với nhau.
02:38
And that's the idea of a robot AI house cleaner
51
158919
2874
Đây là một cơ hội.
Có vẻ như chúng tôi sẵn sàng chia sẻ công việc với những người bạn robot của mình.
02:41
and a robot AI package deliverer,
52
161817
1992
02:43
so Dyson and Amazon, you guys should talk.
53
163833
2626
Chúng ta dường như phân vân về dịch vụ công,
02:46
There's an opportunity there.
54
166848
1548
một luật sư rô-bốt hay một cố vấn tài chính rô-bốt, có thể.
02:48
It seems we're ready to off-load our chores to our robot friends.
55
168420
3960
Nhưng chúng ta hoàn toàn không chấp nhận ý tưởng được chăm sóc từ robot,
02:52
We're kind of definitely on the fence when it comes to services,
56
172404
3015
cho dù đó là y tá, bác sĩ, chăm sóc trẻ em.
02:55
so robot AI lawyer or a financial adviser, maybe.
57
175443
3770
Vì vậy, bạn có thể nói:
“Không sao đâu, Lucy, em biết không?
Ngủ tiếp đi, đừng lo lắng. Cuối cùng thì nhân loại sẽ chiến thắng.”
02:59
But we're firmly closed to the idea of robot care,
58
179237
2785
Nhưng đừng vội kết luận.
03:02
whether it be a nurse, a doctor, child care.
59
182046
2439
Nếu bạn xem xét kỹ dữ liệu của tôi,
03:04
So from this, you'd go,
60
184509
1353
bạn thấy chúng ta dễ bị tấn công hơn chúng ta nghĩ.
03:05
"It's OK, Lucy, you know what?
61
185886
1453
03:07
Go back to sleep, stop worrying, the humans win in the end."
62
187363
3055
Vấn đề của trí tuệ nhân tạo là thương hiệu Vì vậy, những người đã nói rằng
03:10
But actually not so fast.
63
190442
1222
họ sẽ hoàn toàn từ chối ý tưởng là có một trợ lý cá nhân,
03:11
If you look at my data very closely,
64
191688
1722
03:13
you can see we're more vulnerable than we think.
65
193434
2246
nhưng trên thực tế, 45% trong số họ đã có một cái trong túi,
03:15
AI has a branding problem.
66
195704
1285
các thiết bị như Alexa, Google, Siri.
03:17
So of those folks who said
67
197013
2157
03:19
that they would absolutely reject the idea of a personal assistant,
68
199194
3143
1/5 những người phản đối ý tưởng mai mối bằng công nghệ nhân tạo
03:22
45 percent of them had, in fact, one in their pockets,
69
202361
2886
tất nhiên, bạn đoán được là họ đã dùng hẹn hò trực tuyến.
03:25
in terms of a device with Alexa, Google or Siri.
70
205271
3603
Và 80% người từ chối ý tưởng
03:28
One in five of those who were against the idea of AI matchmaking
71
208898
3072
lên máy bay tự hành có phi công dự phòng
trên thực tế, họ giống như tôi có thể đến được Vancouver,
03:31
had of course, you guessed it, done online dating.
72
211994
2655
bằng vé máy bay thương mại.
03:34
And 80 percent of those of us who refuse the idea
73
214673
2289
Tuy nhiên, bạn đừng nghĩ mọi người đều sợ hãi,
03:36
of boarding an autonomous plane with a pilot backup
74
216986
2456
có một nhóm người đáng kinh ngạc ở giữa.
Đây là những người trung lập.
03:39
had in fact, just like me to get here to Vancouver,
75
219466
2555
Những người này sẽ nói:
“Được thôi, bạn robot,”
03:42
flown commercial.
76
222045
1167
03:43
Lest you think everybody was scared, though,
77
223236
2055
và họ kiểu, ” Hm, những người bạn robot. Cũng có thể.”
03:45
here are the marvelous folk in the middle.
78
225315
2135
Hoặc: “Thú cưng Robot thông minh”
03:47
These are the neutrals.
79
227474
1247
và họ sẽ nói, “Đừng nói là không thể.”
03:48
These are people for whom you say,
80
228745
1642
Như bất kỳ chính trị gia nào cũng biết,
03:50
"OK, robot friend,"
81
230411
1269
03:51
and they're like, "Hm, robot friend. Maybe."
82
231704
2935
thay đổi cục diện trung tâm có thể thay đổi kết quả.
03:54
Or, "AI pet,"
83
234663
1621
Và có một lý do khác khiến chúng ta dễ bị chinh phục, đó là đàn ông--
03:56
and they go, "Never say never."
84
236308
2062
03:58
And as any decent political operative knows,
85
238843
2666
Tôi xin lỗi, nhưng đàn ông có khả năng tin cao gấp đôi phụ nữ
04:01
flipping the ambivalent middle can change the game.
86
241533
2722
là có một chiếc xe ô tô tự động lái là một ý tưởng hay,
rằng việc tải bộ não của bạn cho các thế hệ tương lai là một điều thú vị
04:04
Another reason I know we're vulnerable is men --
87
244644
2319
04:06
I'm sorry, but men, you are twice as likely than women
88
246987
2576
và đàn ông tin gấp 2 lần rưỡi rằng trở thành một người máy thì trông rất ngầu
04:09
to believe that getting into an autonomous car is a good idea,
89
249587
3411
và vì điều này, tôi đổ lỗi cho Hollywood.
(Tiếng cười)
04:13
that uploading your brain for posterity is fun,
90
253022
2817
Tại thời điểm này, tôi muốn bạn nhìn khán giả xung quanh
04:15
and two and a half times more likely to believe that becoming a cyborg is cool,
91
255863
3722
cứ 4 người đàn ông thì có một người có thể quan hệ tình dục với người máy.
04:19
and for this, I blame Hollywood.
92
259609
1679
Con số này lên tới 44% nam giới
04:21
(Laughter)
93
261312
1296
04:22
And this is where I want you to look around the theater
94
262632
2596
mặc khác, chỉ 1/10 phụ nữ có thể chấp nhận,
tôi nghĩ nó sẽ mang đến một bước ngoặt hoàn toàn mới cho những lời phàn nàn
04:25
and know that one in four men are OK with the idea of sex with a robot.
95
265252
3357
04:28
That goes up to 44 percent of millennial men
96
268633
3137
về quan hệ tình dục bằng máy.
(tiếng cười)
Thành thật mà nói, điều gây sốc hơn nữa,
04:31
compared to just one in 10 women,
97
271794
1594
là có sự khác biệt trong hành vi.
04:33
which I think puts a whole new twist on the complaint of mechanical sex.
98
273412
3389
Vì vậy, chúng tôi có những người có thiết bị có trợ lý giọng nói trong đó,
04:36
(Laughter)
99
276825
1968
một chiếc loa rô-bốt, thiết bị gia đình thông minh hoặc điện thoại thông minh,
04:38
Even more astounding than that though, to be honest,
100
278817
2429
04:41
is this behavioral difference.
101
281270
1570
và những người không có.
04:42
So here we have people who have a device with a voice assistant in it,
102
282864
4213
Bạn có thể nhìn thấy từ biểu đồ này
con ngựa Trojan đã có sẵn trong phòng khách của chúng tôi.
04:47
so a smart speaker, a home hub or a smart phone,
103
287101
2746
Với sự gia tăng của các thiết bị này
04:49
versus those who don't.
104
289871
1722
và hàng phòng ngự tập thể của chúng ta đang suy yếu,
04:51
And you can see from this graph
105
291617
1500
chúng ta có thể thấy nó sẽ kết thúc như thế nào.
04:53
that the Trojan horse is already in our living room.
106
293141
3723
Trên thực tế, bây giờ là thời điểm tốt để thừa nhận
04:56
And as these devices proliferate
107
296888
2087
đó là tôi đã mang theo Alexa Dot trong kỳ nghỉ của mình.
04:58
and our collective defenses soften,
108
298999
3217
Những nghiên cứu cuối cùng mà tôi có thời gian để nói đến thế hệ.
05:02
we all see how it can end.
109
302240
1997
Hãy nhìn vào sự khác biệt giữa ba thế hệ.
05:04
In fact, this may be as good a time as any to admit
110
304261
2389
Đây là bước nhảy vọt từ thế hệ thầm lặng
05:06
I did take my Alexa Dot on vacation with me.
111
306674
2406
đến bùng nổ sang thế hệ thiên niên kỷ.
Và điều tuyệt vời hơn nữa là nếu chúng ta ước tính kết quả,
05:10
Final finding I have time for is generational.
112
310192
2151
05:12
So look at the difference just three generations make.
113
312367
2555
tỷ lệ thay đổi là như nhau,
05:14
This is the leap from silent to boomer to millennial.
114
314946
3155
ở cùng một tốc độ,
không phải loại tăng tốc mà tôi tin sẽ xảy ra trong trường hợp,
05:18
And what's more fascinating than this is if you extrapolate this out,
115
318125
3245
ở cùng tốc độ,
sau đó tám thế hệ
05:21
the same rate of change,
116
321394
1215
chúng ta sẽ nghe thấy mọi người Mỹ
05:22
just the same pace,
117
322633
1190
05:23
not the accelerated one I actually believe will be the case,
118
323847
2835
nghĩ rằng những điều này là bình thường.
05:26
the same pace,
119
326706
1175
Vì vậy, năm 2222 sẽ là một năm tuyệt vời
05:27
then it is eight generations away
120
327905
1697
05:29
when we hear every single American
121
329626
2340
những gì được nói hôm nay sẽ là xu hướng chủ đạo.
05:31
thinking the majority of these things here are normal.
122
331990
3381
Và nếu bạn cần thêm sự thuyết phục,
đây là mức độ hào hứng của mỗi thế hệ về trí tuệ nhân tạo.
05:35
So the year 2222 is an astounding place
123
335395
3039
Không có gì ngạc nhiên khi thế hệ trẻ ngày càng hào hứng hơn.
05:38
where everything here is mainstream.
124
338458
2294
05:40
And lest you needed any more convincing,
125
340776
1945
Nhưng, đây có lẽ là kết quả nghiên cứu mâu thuẫn nhất trong sự nghiệp của tôi.
05:42
here is the generation's "excitement level with AI."
126
342745
2808
vào 3 giờ sáng, tôi hỏi mọi người câu hỏi,
05:45
So not surprisingly, the youngest of us are more excited.
127
345577
3340
“Cuối cùng ai sẽ thắng?”
05:49
But, and possibly the most paradoxical finding of my career,
128
349331
3976
Đoán thử xem.
Bạn càng hào hứng về trí tuệ nhân tạo và robot,
05:53
when I asked these people my 3am question,
129
353331
3000
bạn càng có nhiều khả năng để trả lời là robot.
05:56
"Who wins in the end?"
130
356355
1467
Tôi không nghĩ chúng ta cần một phần mềm nhận dạng mẫu hoạt động như mạng thần kinh
05:58
Guess what.
131
358188
1150
05:59
The more excited you are about AI and robotics,
132
359736
2238
để xem những điều này đi đến đâu.
06:01
the more likely you are to say it's the robots.
133
361998
2685
Chúng ta đều là những con ếch được nấu trong nước sôi.
Vì vậy ở thế hệ sau nếu robot xem được video này tại TED 2222,
06:05
And I don't think we need a neural net running pattern-recognition software
134
365347
3532
06:08
to see where this is all headed.
135
368903
1705
06:10
We are the proverbial frogs in boiling water.
136
370632
2705
bạn có thể gửi một con cyborg để đào tôi lên khỏi mặt đất được không?
06:13
So if the robots at TED2222 are watching this for posterity,
137
373361
5153
(Tiếng cười)
Cảm ơn.
(Tiếng vỗ tay)
06:18
could you send a cyborg, dig me up and tell me if I was right?
138
378538
2976
06:21
(Laughter)
139
381538
1165
06:22
Thank you.
140
382727
1177
06:23
(Applause)
141
383928
1619
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7