Your Right to Repair AI Systems | Rumman Chowdhury | TED

44,322 views ・ 2024-06-05

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Lập Nguyễn Reviewer: Quỳnh Phương Flora
00:04
I want to tell you a story
0
4543
1835
Tôi muốn kể cho bạn nghe một câu chuyện
00:06
about artificial intelligence and farmers.
1
6419
4171
về trí tuệ nhân tạo và nông dân.
00:10
Now, what a strange combination, right?
2
10966
3044
Bây giờ, thật là một sự kết hợp kỳ lạ, phải không?
00:14
Two topics could not sound more different from each other.
3
14010
4088
Hai chủ đề nghe có vẻ không khác nhau hơn.
00:18
But did you know that modern farming actually involves a lot of technology?
4
18431
5047
Nhưng bạn có biết là nông nghiệp hiện đại thực sự liên quan đến rất nhiều công nghệ?
00:23
So computer vision is used to predict crop yields.
5
23478
3796
Vì vậy, thị giác máy tính được sử dụng để dự đoán năng suất cây trồng.
00:27
And artificial intelligence is used to find,
6
27315
2836
Và trí tuệ nhân tạo được sử dụng để tìm,
00:30
identify and get rid of insects.
7
30151
2878
xác định và loại bỏ côn trùng.
00:33
Predictive analytics helps figure out extreme weather conditions
8
33071
4129
Phân tích dự đoán giúp tìm ra các điều kiện thời tiết khắc nghiệt
00:37
like drought or hurricanes.
9
37242
1960
như hạn hán hoặc bão.
00:39
But this technology is also alienating to farmers.
10
39744
4547
Nhưng công nghệ này cũng xa lạ với nông dân.
00:44
And this all came to a head in 2017
11
44291
3003
Và tất cả điều này đã đạt đến đỉnh điểm vào năm 2017
00:47
with the tractor company John Deere when they introduced smart tractors.
12
47335
4922
với công ty máy kéo John Deere khi họ giới thiệu máy kéo thông minh.
00:52
So before then, if a farmer's tractor broke,
13
52299
2961
Vì vậy, trước đó, nếu máy kéo của nông dân bị hỏng,
00:55
they could just repair it themselves or take it to a mechanic.
14
55302
3920
họ có thể tự sửa chữa nó hoặc đưa nó đến một thợ cơ khí.
00:59
Well, the company actually made it illegal
15
59222
2961
Vâng, công ty đã cho việc nông dân sửa
01:02
for farmers to fix their own equipment.
16
62225
2586
chữa thiết bị của họ là bất hợp pháp.
01:04
You had to use a licensed technician
17
64811
2836
Bạn phải có giấy phép kỹ thuật
01:07
and farmers would have to wait for weeks
18
67689
2628
và nông dân sẽ phải đợi nhiều tuần
01:10
while their crops rot and pests took over.
19
70317
3044
trong khi cây trồng của họ bị thối rữa và sâu bệnh xâm chiếm.
01:14
So they took matters into their own hands.
20
74279
3170
Vì vậy, họ đã tự mình giải quyết vấn đề.
01:17
Some of them learned to program,
21
77490
1544
Một số người họ đã học lập trình
01:19
and they worked with hackers to create patches to repair their own systems.
22
79075
4922
và họ đã làm việc với tin tặc để tạo ra các bản vá để sửa chữa hệ thống.
01:23
In 2022,
23
83997
1418
Vào năm 2022,
01:25
at one of the largest hacker conferences in the world, DEFCON,
24
85457
3712
tại một trong những hội nghị tin tặc lớn nhất thế giới, DEFCON,
01:29
a hacker named Sick Codes and his team
25
89210
2586
một hacker tên là Sick Codes và nhóm của anh ta đã chỉ
01:31
showed everybody how to break into a John Deere tractor,
26
91838
3212
cho mọi người cách đột nhập vào máy kéo John Deere,
01:35
showing that, first of all, the technology was vulnerable,
27
95091
3629
cho thấy rằng, trước hết, công nghệ này dễ bị tổn thương,
01:38
but also that you can and should own your own equipment.
28
98762
4337
nhưng bạn cũng có thể và nên sở hữu thiết bị của riêng mình.
01:43
To be clear, this is illegal,
29
103683
2836
Nói rõ ràng, điều này là bất hợp pháp,
01:46
but there are people trying to change that.
30
106561
2795
nhưng có những người đang cố gắng thay đổi điều đó.
01:49
Now that movement is called the “right to repair.”
31
109689
3796
Bây giờ phong trào đó được gọi là “quyền sửa chữa”.
01:53
The right to repair goes something like this.
32
113526
2169
Quyền sửa chữa giống như thế này.
01:55
If you own a piece of technology,
33
115737
1668
Nếu bạn sở hữu một công nghệ,
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
đó có thể là máy kéo, bàn chải đánh răng thông minh,
01:59
a washing machine,
35
119991
1377
máy giặt,
02:01
you should have the right to repair it if it breaks.
36
121368
3086
bạn nên có quyền sửa chữa nó nếu nó bị hỏng.
02:05
So why am I telling you this story?
37
125246
2253
Vậy tại sao tôi lại kể cho bạn chuyện này?
02:08
The right to repair needs to extend to artificial intelligence.
38
128541
5214
Quyền sửa chữa cần mở rộng sang trí tuệ nhân tạo.
02:14
Now it seems like every week
39
134214
2127
Giờ đây, dường như mỗi tuần đều
02:16
there is a new and mind-blowing innovation in AI.
40
136383
3336
có một sự đổi mới và đáng kinh ngạc trong AI.
02:19
But did you know that public confidence is actually declining?
41
139719
4880
Nhưng bạn có biết rằng niềm tin của công chúng đang thực sự giảm sút?
02:24
A recent Pew poll showed that more Americans are concerned
42
144599
4963
Một cuộc thăm dò gần đây của Pew cho thấy nhiều người Mỹ quan tâm
02:29
than they are excited about the technology.
43
149604
2503
hơn là họ hào hứng về công nghệ này.
02:32
This is echoed throughout the world.
44
152148
2211
Điều này được gây tiếng vang trên toàn thế giới.
02:34
The World Risk Poll shows
45
154401
1418
Cuộc thăm dò của World Risk
02:35
that respondents from Central and South America and Africa
46
155860
3462
cho thấy những người được hỏi từ Trung, Nam Mỹ và Châu Phi
02:39
all said that they felt AI would lead to more harm than good for their people.
47
159322
6090
đều nói rằng họ cảm thấy AI sẽ có hại hơn là có lợi đối với con người.
02:46
As a social scientist and an AI developer,
48
166287
2503
Là một nhà khoa học xã hội và một nhà phát triển AI,
02:48
this frustrates me.
49
168790
1585
điều này làm tôi thất vọng.
02:50
I'm a tech optimist
50
170417
1293
Tôi là một người lạc quan về kỹ thuật
02:51
because I truly believe this technology can lead to good.
51
171751
4338
vì tôi thực sự tin rằng công nghệ này có thể dẫn đến điều tốt đẹp.
02:56
So what's the disconnect?
52
176464
1919
Vậy cái ngắt kết nối là gì?
02:58
Well, I've talked to hundreds of people over the last few years.
53
178758
3754
Tôi đã nói chuyện với hàng trăm người trong vài năm qua.
03:02
Architects and scientists, journalists and photographers,
54
182554
3670
Các kiến trúc sư, nhà khoa học, nhà báo và nhiếp ảnh gia,
03:06
ride-share drivers and doctors,
55
186224
1710
tài xế và bác sĩ chia sẻ xe,
03:07
and they all say the same thing.
56
187976
2961
và tất cả họ đều nói cùng một điều.
03:12
People feel like an afterthought.
57
192272
3795
Mọi người cảm thấy như một suy nghĩ sau cùng
03:17
They all know that their data is harvested often without their permission
58
197485
4338
Họ đều biết rằng dữ liệu của họ được thu thập thường xuyên một cách trái phép
03:21
to create these sophisticated systems.
59
201823
2461
để tạo ra các hệ thống tinh vi này.
03:24
They know that these systems are determining their life opportunities.
60
204325
4171
Họ biết rằng những hệ thống này đang xác định cơ hội sống của họ.
03:28
They also know that nobody ever bothered to ask them
61
208496
3545
Họ cũng biết rằng không ai bận tâm đến việc hỏi họ
nên xây dựng hệ thống như thế nào,
03:32
how the system should be built,
62
212083
1502
03:33
and they certainly have no idea where to go if something goes wrong.
63
213585
5964
và họ chắc chắn không biết phải đi đâu nếu có sự cố xảy ra.
03:40
We may not own AI systems,
64
220383
2336
Chúng ta không sở hữu các hệ thống AI,
03:42
but they are slowly dominating our lives.
65
222761
2794
nhưng chúng đang dần thống trị cuộc sống của chúng ta.
03:45
We need a better feedback loop
66
225597
1501
Chúng ta cần một vòng lặp phản hồi tốt hơn
03:47
between the people who are making these systems,
67
227140
2961
giữa những người đang tạo ra các hệ thống này,
03:50
and the people who are best determined to tell us
68
230101
3337
và những người quyết tâm nhất cho chúng ta biết
03:53
how these AI systems should interact in their world.
69
233480
3628
các hệ thống AI này nên tương tác như thế nào trong thế giới của họ.
03:57
One step towards this is a process called red teaming.
70
237609
3837
Một bước hướng tới điều này là một quá trình được gọi là Red Teaming.
04:01
Now, red teaming is a practice that was started in the military,
71
241821
3003
Giờ đây, nhóm đỏ là một thực hành được bắt đầu trong quân đội,
04:04
and it's used in cybersecurity.
72
244866
1919
và nó được sử dụng trong an ninh mạng.
04:06
In a traditional red-teaming exercise,
73
246826
2628
Trong một cuộc tập trận đồng đội đỏ truyền thống,
04:09
external experts are brought in to break into a system,
74
249454
3920
bên ngoài được đưa vào để đột nhập vào một hệ thống,
04:13
sort of like what Sick Codes did with tractors, but legal.
75
253374
4338
giống như những gì Sick Codes đã làm với máy kéo, nhưng hợp pháp.
04:17
So red teaming acts as a way of testing your defenses
76
257712
3670
nên việc hồng quân hoạt động như một cách để kiểm tra khả năng phòng thủ của bạn
04:21
and when you can figure out where something will go wrong,
77
261424
3545
và khi bạn có thể tìm ra điều gì đó sẽ xảy ra sai sót
04:25
you can figure out how to fix it.
78
265011
3003
bạn có thể tìm ra cách khắc phục nó.
04:28
But when AI systems go rogue,
79
268056
2377
Nhưng khi các hệ thống AI trở nên tồi tệ,
04:30
it's more than just a hacker breaking in.
80
270433
2920
đó không chỉ là một tin tặc đột nhập.
04:33
The model could malfunction or misrepresent reality.
81
273394
3754
Mô hình có thể bị trục trặc hoặc trình bày sai thực tế.
04:37
So, for example, not too long ago,
82
277190
2044
Vì vậy, ví dụ, cách đây không lâu,
04:39
we saw an AI system attempting diversity
83
279234
2627
chúng ta đã thấy một hệ thống AI cố gắng đa dạng
04:41
by showing historically inaccurate photos.
84
281903
3503
bằng cách hiển thị những bức ảnh không chính xác trong lịch sử.
04:45
Anybody with a basic understanding of Western history
85
285406
2670
Bất cứ ai có hiểu biết cơ bản về lịch sử phương Tây đều
04:48
could have told you that neither the Founding Fathers
86
288076
2502
có thể nói với bạn rằng cả những người sáng lập và những người
04:50
nor Nazi-era soldiers would have been Black.
87
290620
2169
những người lính thời Đức Quốc xã đều không phải Da đen.
04:54
In that case, who qualifies as an expert?
88
294123
3629
Trong trường hợp đó, ai đủ điều kiện làm chuyên gia?
04:58
You.
89
298670
1168
Là bạn.
05:00
I'm working with thousands of people all around the world
90
300380
2836
Tôi đang làm việc với hàng ngàn người trên khắp thế giới
05:03
on large and small red-teaming exercises,
91
303258
2252
trong các bài tập nhóm nhỏ và lớn, và thông qua đó,
05:05
and through them we found and fixed mistakes in AI models.
92
305552
4629
chúng tôi đã tìm thấy và sửa lỗi trong các mô hình AI.
05:10
We also work with some of the biggest tech companies in the world:
93
310181
3587
Chúng tôi cũng làm việc với một số công ty công nghệ lớn nhất trên thế giới:
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
OpenAI, Meta, Anthropic, Google.
05:16
And through this, we've made models work better for more people.
95
316604
4630
Và thông qua điều này, chúng tôi làm ra những mô hình tốt hơn cho mọi người
05:22
Here's a bit of what we've learned.
96
322277
2168
Đây là một chút những gì chúng tôi đã học được.
05:24
We partnered with the Royal Society in London to do a scientific,
97
324988
3670
Chúng tôi đã hợp tác với Hiệp hội Hoàng gia London để thực hiện một nghiên cứu,
05:28
mis- and disinformation event with disease scientists.
98
328658
3545
thiếu và sai lệch thông tin với các nhà khoa học về bệnh tật.
05:32
What these scientists found
99
332203
1335
Những nhà khoa học này tìm thấy
05:33
is that AI models actually had a lot of protections
100
333580
2794
là các mô hình AI thực sự có rất nhiều biện pháp bảo vệ
05:36
against COVID misinformation.
101
336416
2294
chống lại thông tin sai lệch COVID.
05:38
But for other diseases like measles, mumps and the flu,
102
338751
3546
Nhưng đối với các bệnh khác như sởi, quai bị và cúm,
05:42
the same protections didn't apply.
103
342297
2460
các biện pháp bảo vệ tương tự không được áp dụng.
05:44
We reported these changes,
104
344757
1293
Chúng tôi ghi lại những thay đổi,
05:46
they’re fixed and now we are all better protected
105
346050
3170
chúng đã được sửa chữa và bây giờ chúng ta đều được bảo vệ
05:49
against scientific mis- and disinformation.
106
349220
2670
tốt hơn trước thông tin sai lệch và sai lệch khoa học.
05:52
We did a really similar exercise with architects at Autodesk University,
107
352724
4838
Chúng tôi đã thực hiện một bài tập giống với các kiến trúc sư tại Đại học Autodesk,
05:57
and we asked them a simple question:
108
357562
1877
và chúng tôi đã hỏi một câu đơn giản:
05:59
Will AI put them out of a job?
109
359439
2961
Liệu AI có khiến họ nghỉ việc không?
06:02
Or more specifically,
110
362442
2169
Hay cụ thể hơn,
06:04
could they imagine a modern AI system
111
364611
2043
họ có thể tưởng tượng một hệ thống AI hiện đại
06:06
that would be able to design the specs of a modern art museum?
112
366696
3670
có thể thiết kế kính của một bảo tàng nghệ thuật hiện đại không?
06:10
The answer, resoundingly, was no.
113
370408
3962
Câu trả lời, vang dội, là không.
06:14
Here's why, architects do more than just draw buildings.
114
374787
3629
Đây là lý do tại sao, các kiến trúc sư làm nhiều việc hơn là chỉ vẽ các tòa nhà.
06:18
They have to understand physics and material science.
115
378458
3336
Họ phải hiểu vật lý và khoa học vật liệu.
06:21
They have to know building codes,
116
381836
1585
Họ phải biết các quy tắc xây dựng,
06:23
and they have to do that
117
383463
1251
và họ phải làm điều đó
06:24
while making something that evokes emotion.
118
384756
2794
trong khi tạo ra một cái gì đó gợi lên cảm xúc.
06:28
What the architects wanted was an AI system
119
388426
2169
Những gì các kiến trúc sư muốn là một hệ thống AI
06:30
that interacted with them, that would give them feedback,
120
390595
2753
tương tác với họ, sẽ cung cấp cho họ phản hồi,
06:33
maybe proactively offer design recommendations.
121
393389
2753
có thể chủ động đưa ra các đề xuất thiết kế.
06:36
And today's AI systems, not quite there yet.
122
396142
3670
Và hệ thống AI ngày nay, vẫn chưa hoàn toàn ở đó.
06:39
But those are technical problems.
123
399854
1752
Nhưng đó là những vấn đề kỹ thuật.
06:41
People building AI are incredibly smart,
124
401648
2043
Những người xây dựng AI cực kỳ thông minh,
06:43
and maybe they could solve all that in a few years.
125
403733
2753
và có lẽ họ có thể giải quyết tất cả những điều đó trong một vài năm.
06:46
But that wasn't their biggest concern.
126
406527
1961
Nhưng đó không phải là mối quan tâm lớn nhất.
06:48
Their biggest concern was trust.
127
408529
2795
Mối quan tâm lớn nhất của họ là sự tin tưởng.
06:51
Now architects are liable if something goes wrong with their buildings.
128
411991
4546
Các kiến trúc sư phải chịu trách nhiệm nếu có sự cố xảy ra với tòa nhà của họ.
06:56
They could lose their license,
129
416537
1669
Họ có thể mất giấy phép,
06:58
they could be fined, they could even go to prison.
130
418206
3211
họ có thể bị phạt, thậm chí họ có thể đi tù.
07:01
And failures can happen in a million different ways.
131
421459
3086
Và thất bại có thể xảy ra theo một triệu cách khác nhau.
07:04
For example, exit doors that open the wrong way,
132
424545
3045
Ví dụ, cửa ra vào mở sai đường,
07:07
leading to people being crushed in an evacuation crisis,
133
427632
4296
dẫn đến người dân bị nghiền nát trong một cuộc khủng hoảng sơ tán,
07:11
or broken glass raining down onto pedestrians in the street
134
431928
4129
hoặc kính vỡ đổ xuống người đi bộ trên đường
07:16
because the wind blows too hard and shatters windows.
135
436099
3837
vì gió thổi quá mạnh và làm vỡ cửa sổ.
07:20
So why would an architect trust an AI system with their job,
136
440311
3921
Vậy tại sao một kiến trúc sư lại tin tưởng vào một hệ thống AI với công việc của họ,
07:24
with their literal freedom,
137
444273
2670
với sự tự do theo nghĩa đen của họ,
07:26
if they couldn't go in and fix a mistake if they found it?
138
446943
3628
nếu họ không thể vào và sửa lỗi nếu họ tìm thấy nó?
07:31
So we need to figure out these problems today, and I'll tell you why.
139
451030
4171
Vì vậy, chúng ta cần tìm ra những vấn đề ngày hôm nay và tôi sẽ nói bạn biết lý do.
07:35
The next wave of artificial intelligence systems, called agentic AI,
140
455201
5047
Làn sóng tiếp theo của các hệ thống trí tuệ nhân tạo, được gọi là AI đại lý,
07:40
is a true tipping point
141
460289
1335
là một điểm bùng phát thực sự
07:41
between whether or not we retain human agency,
142
461624
4213
giữa việc chúng ta có giữ quyền tự quyết của con người hay không,
07:45
or whether or not AI systems make our decisions for us.
143
465837
3795
hoặc liệu các hệ thống AI có đưa ra quyết định cho chúng ta hay không.
07:50
Imagine an AI agent as kind of like a personal assistant.
144
470008
3211
Hãy tưởng tượng một nhân viên AI giống như một trợ lý cá nhân.
07:53
So, for example, a medical agent might determine
145
473261
3712
Vì vậy, ví dụ, một nhân viên y tế có thể xác định
07:57
whether or not your family needs doctor's appointments,
146
477015
2585
xem gia đình bạn có cần cuộc hẹn với bác sĩ hay không,
07:59
it might refill prescription medications, or in case of an emergency,
147
479642
3379
họ có thể bổ sung thuốc theo toa hoặc trong trường hợp khẩn cấp,
08:03
send medical records to the hospital.
148
483062
2586
gửi hồ sơ y tế đến bệnh viện.
08:05
But AI agents can't and won't exist
149
485690
2836
Nhưng các nhân viên AI không thể và sẽ không tồn tại
08:08
unless we have a true right to repair.
150
488568
2210
trừ khi chúng ta có quyền sửa chữa thực sự.
08:10
What parent would trust their child's health to an AI system
151
490820
4922
Cha mẹ nào sẽ tin tưởng sức khỏe của con mình vào hệ thống AI
08:15
unless you could run some basic diagnostics?
152
495783
2795
trừ khi bạn có thể chạy một số chẩn đoán cơ bản?
08:18
What professional would trust an AI system with job decisions,
153
498619
4213
Chuyên gia nào sẽ tin tưởng vào một hệ thống AI với các quyết định công việc,
08:22
unless you could retrain it the way you might a junior employee?
154
502874
4296
trừ khi bạn có thể đào tạo lại nó theo cách bạn có thể là một nhân viên cấp dưới?
Bây giờ, quyền sửa chữa có thể trông giống như thế này.
08:28
Now, a right to repair might look something like this.
155
508129
2878
Bạn có thể có một bảng chẩn đoán
08:31
You could have a diagnostics board
156
511007
2210
08:33
where you run basic tests that you design,
157
513259
3003
nơi bạn chạy các bài kiểm tra cơ bản mà bạn thiết kế
08:36
and if something's wrong, you could report it to the company
158
516304
2836
và nếu có gì đó không ổn, bạn có thể báo cáo nó cho công ty
và nghe lại khi nó được sửa chữa.
08:39
and hear back when it's fixed.
159
519140
1585
08:40
Or you could work with third parties like ethical hackers
160
520725
3128
Hoặc bạn có thể làm việc với các bên thứ ba như tin tặc có đạo đức,
08:43
who make patches for systems like we do today.
161
523895
2586
những người tạo ra bản vá giống với chúng ta làm ngày nay.
08:46
You can download them and use them to improve your system
162
526481
2711
Bạn có thể tải chúng xuống và sử dụng để cải thiện hệ thống
08:49
the way you want it to be improved.
163
529233
1919
theo cách bạn muốn nó được cải thiện.
08:51
Or you could be like these intrepid farmers and learn to program
164
531194
3628
Hoặc bạn có thể giống như những nông dân gan dạ này và học cách lập trình
08:54
and fine-tune your own systems.
165
534864
3003
và tinh chỉnh hệ thống của riêng bạn.
08:58
We won't achieve the promised benefits of artificial intelligence
166
538618
4171
Chúng ta sẽ không đạt được những lợi ích hứa hẹn của trí tuệ nhân tạo
09:02
unless we figure out how to bring people into the development process.
167
542789
5046
trừ khi chúng ta tìm ra cách đưa mọi người vào quá trình phát triển.
09:08
I've dedicated my career to responsible AI,
168
548377
3504
Tôi đã cống hiến sự nghiệp của mình cho AI có trách nhiệm,
09:11
and in that field we ask the question,
169
551923
3253
và trong lĩnh vực đó, chúng tôi đặt câu hỏi,
09:15
what can companies build to ensure that people trust AI?
170
555218
4963
các công ty có thể xây dựng gì để đảm bảo rằng mọi người tin tưởng AI?
09:20
Now, through these red-teaming exercises, and by talking to you,
171
560723
3837
Bây giờ, qua những bài tập đồng đội đỏ này, và bằng cách nói chuyện với bạn,
09:24
I've come to realize that we've been asking the wrong question all along.
172
564602
5339
tôi đã nhận ra rằng chúng tôi đã hỏi sai câu hỏi từ đầu.
09:30
What we should have been asking is what tools can we build
173
570566
3921
Điều mà chúng ta nên hỏi là chúng ta có thể xây dựng những công cụ nào
09:34
so people can make AI beneficial for them?
174
574529
4045
để mọi người có thể làm cho AI có lợi cho họ?
09:39
Technologists can't do it alone.
175
579117
2460
Các nhà công nghệ không thể làm điều đó một mình.
09:41
We can only do it with you.
176
581619
2419
Chúng tôi chỉ có thể làm điều đó với bạn.
09:44
Thank you.
177
584080
1168
Cảm ơn các bạn.
09:45
(Applause)
178
585248
2794
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7