Art that reveals how technology frames reality | Jiabao Li

80,436 views ・ 2020-04-06

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Reviewer: Thùy Dung Đỗ
Tôi là một nghệ sĩ và vừa là một kỹ sư
Gần đây,tôi nghĩ cách công nghệ gián tiếp
00:12
I'm an artist and an engineer.
0
12887
2396
giúp chúng ta nhận thức thực tế
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
Và điều này đầy sắc thái, thậm chí là siêu hình.
Công nghệ được thiết kế để định hình cách chúng ta nhìn thực tế
00:21
the way we perceive reality.
2
21105
2041
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
bằng cách đeo mặt nạ chính nó như trải nghiệm thực sự của thế giới.
Và kết quả là, chúng ta càng trở nên mất nhận thức
00:29
Technology is designed to shape our sense of reality
4
29260
3646
00:32
by masking itself as the actual experience of the world.
5
32930
3811
về những gì đang thực sự xảy ra.
Lấy ví dụ cho cặp kính tôi thường xuyên đeo.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
Những thứ này dần trở thành một phần cách tôi trải nghiệm những điều xung quanh.
00:42
that it is happening at all.
7
42140
2185
Tôi ít để ý chúng,
00:45
Take the glasses I usually wear, for example.
8
45360
2488
mặc dù chúng đang liên tục định hình thực tế của tôi.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
Thứ công nghệ tôi đang nói đến đã được thiết kế để làm điều tương tự:
00:52
I barely notice them,
10
52352
1490
00:53
even though they are constantly framing reality for me.
11
53866
4085
thay đổi những gì chúng ta thấy và nghĩ
nhưng chúng ta không để ý tới.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
Bây giờ, lần duy nhất tôi để ý cặp kính này
01:02
change what we see and think
13
62487
2438
khi một vài thứ xảy ra khiến tôi chú ý đến nó,
01:04
but go unnoticed.
14
64949
1760
giống như khi nó (cặp kính) dính bẩn hoặc quy định của tôi thay đổi.
01:07
Now, the only time I do notice my glasses
15
67780
3269
Tôi tự hỏi bản thân, “Là một nghệ sĩ, tôi có thể tạo ra những gì?
01:11
is when something happens to draw my attention to it,
16
71073
3258
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
Để vẽ nên sự chú ý tương tự
về cách truyền thông kỹ thuật số,như tổ chức giới báo chí, nền tảng mạng xã hội,
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
01:23
to draw the same kind of attention
19
83113
2447
quảng cáo và tìm kiếm nguồn lực--
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
đang định hình thực tế của chúng ta?
Vì thế tôi tạo nên hàng loạt các cỗ máy có thể nhận thức
01:31
advertising and search engines --
21
91779
2261
để giúp chúng ta trình diễn một cách mới lạ và đặt câu hỏi
01:34
are shaping our reality?"
22
94064
2014
01:36
So I created a series of perceptual machines
23
96798
4772
về cách chúng ta nhìn thế giới.
Ví dụ, ngày nay, chúng ta thường phản ứng
01:41
to help us defamiliarize and question
24
101594
3566
01:45
the ways we see the world.
25
105184
2120
với những ý tưởng khác lạ so với bình thường.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
Chúng ta còn không nhận ra chúng ta đang phát triển kiểu phản xạ tâm lý này.
01:54
to ideas that are different from ours.
27
114916
2493
Nên tôi tạo chiếc mũ gây ra dị ứng nhân tạo với màu đỏ
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
Nó kích thích mẫn cảm bằng cách khiến những thứ màu đỏ trở nên lớn hơn
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
khi bạn đội nó.
Nó có hai chế độ: nocebo và placebo.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
Trong chế độ nocebo, nó tạo ra cảm giác từng trải với dị ứng
02:14
when you are wearing it.
31
134740
1280
02:16
It has two modes: nocebo and placebo.
32
136730
3558
Mỗi khi tôi thấy màu đỏ, nó lan ra.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
Tương tự như hiệu ứng khuếch đại của mạng xã hội,
như lúc bạn đang tìm thứ gì làm phiền mình,
02:26
Whenever I see red, the red expands.
34
146653
2707
bạn có xu hướng dính chặt với những người cùng tư tưởng
02:30
It's similar to social media's amplification effect,
35
150062
3531
và trao đổi tin nhắn và meme, và thậm chí bạn trở nên hung dữ hơn trước.
02:33
like when you look at something that bothers you,
36
153617
2597
Đôi khi cuộc trao đổi bình thường lại bị khuếch đại
02:36
you tend to stick with like-minded people
37
156238
2928
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
và bị thổi tung từng phần.
Có thể đó là lý do vì sao chúng ta đang sống trong sự hung dữ của chính trị.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
02:47
and blown way out of proportion.
40
167960
2401
Ở chế độ placebo, nó là thuốc chữa nhân tạo cho kiểu dị ứng này.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
Mỗi khi bạn thấy màu đỏ, nó co lại.
Nó giảm bớt, như truyền thông kỹ thuật số.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
Khi bạn gặp một ai có tư tưởng khác biệt,
03:00
Whenever you see red, the red shrinks.
43
180575
2292
chúng ta sẽ không tuân theo họ,
loại bỏ họ hoàn toàn khỏi chúng ta.
03:03
It's a palliative, like in digital media.
44
183617
2875
Nó chữa khỏi kiểu dị ứng này bằng cách tránh né.
03:06
When you encounter people with different opinions,
45
186516
2899
03:09
we will unfollow them,
46
189439
1477
Nhưng chủ đích mặc kệ những ý tưởng đối lập
03:10
remove them completely out of our feeds.
47
190940
2748
khiến cho xã hội con người phân rã và rời rạc.
03:14
It cures this allergy by avoiding it.
48
194343
3203
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
Thiết bị bên trong chiếc mũ này tái định hình thực tại
và đưa vào mắt chúng ta thông qua một loạt thấu kính
03:22
makes human community hyperfragmented and separated.
50
202141
4056
để tăng cường tái tạo thực tế.
03:27
The device inside the helmet reshapes reality
51
207343
3059
Tôi chọn màu đỏ vì nó mãnh liệt và đầy xúc cảm,
03:30
and projects into our eyes through a set of lenses
52
210426
2950
nó có khả năng hiển thị cao
03:33
to create an augmented reality.
53
213400
1915
và mang tính chính trị.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
Chuyện gì xảy ra nếu ta nhìn vào
bản đồ bầu cử tổng thống gần đây của Hoa Kì
03:40
it has high visibility
55
220741
1958
thông qua chiếc mũ ?
(Tiếng cười)
03:42
and it's political.
56
222723
1278
Bạn sẽ thấy nó không hề ảnh hưởng nếu bạn thuộc ban Cộng hòa hay Dân chủ,
03:44
So what if we take a look
57
224390
1263
03:45
at the last American presidential election map
58
225677
3049
bởi vì bước trung gian thay đổi nhận thức chúng ta.
03:48
through the helmet?
59
228750
1165
03:49
(Laughter)
60
229939
1008
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
Dị ứng tồn tại hai mặt.
03:54
because the mediation alters our perceptions.
62
234568
3989
Trong truyền thông,
những gì ta thấy hàng ngày thường trải qua bước trung gian,
03:58
The allergy exists on both sides.
63
238581
3133
nhưng nó cũng chứa nhiều sắc thái.
Nếu chúng ta không nhận thức điều này,
04:03
In digital media,
64
243134
1320
ta sẽ trở nên dễ bị công kích trước các dị ứng tâm lý .
04:04
what we see every day is often mediated,
65
244478
3133
04:07
but it's also very nuanced.
66
247635
1733
04:09
If we are not aware of this,
67
249758
1995
Nhận thức của chúng ta không chỉ nằm trong danh tính một phần,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
nhưng trong truyền thông kĩ thuật số, nó cũng là một phần chuỗi giá trị.
04:18
Our perception is not only part of our identities,
69
258900
3510
Về mặt thị giác,
chúng ta tràn ngâp với nhiều thông tin
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
mà nhận thức dần trở thành một sản phẩm với giá trị vô thức.
04:27
Our visual field is packed with so much information
71
267992
3575
Thuật toán ưa chuộng xác nhận lần nữa
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
quan điểm của chúng ta.
các thuật toán ủng hộ nội dung khẳng định lại ý kiến chúng ta
vì thế nên tại mọi ngóc ngách trong lĩnh vực của chúng ta đều biến thành thuộc địa
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
cho việc bán quảng cáo.
Như khi nốt đỏ này đi ra từ thông báo của bạn,
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
nó phát triển và lan rộng, và trong suy nghĩ bạn, nó to lớn.
04:49
to sell ads.
76
289307
1342
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
Nên tôi bắt đầu nghĩ đến việc thêm một ít bụi,
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
hay thay đổi thấu kính của mắt kính tôi,
và lên ý tưởng cho một dự án khác.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
Bây giờ,hãy nhớ rằng đây chỉ là khái niệm.
Không phải một sản phẩm thực.
05:03
or change the lenses of my glasses,
80
303956
2698
Nó là một bổ trợ trình duyệt
05:06
and came up with another project.
81
306678
2098
có thể giúp chúng ta chú ý những thứ mình thường bỏ quên.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
Giống như chiếc mũ,phần bổ trợ này tái định hình thực tế,
05:13
It's a web browser plug-in
83
313676
2073
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
nhưng lần này, trực tiếp vào truyền thông kỹ thuật số
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
Nó hiển thị những giọng nói vốn đã được lọc và ẩn giấu.
Điều mà bạn nên chú ý bây giờ
05:24
but this time, directly into the digital media itself.
86
324503
3397
sẽ trở nên lớn hơn và sôi động,
Như ở đây, câu chuyện này là về thiên vị giới tính trong những video về mèo.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
05:32
What you should be noticing now
88
332246
1573
(Tiếng cười)
05:33
will be bigger and vibrant,
89
333843
2509
Chương trình bổ trợ giảm bớt những thứ được khuếch đại qua một thuật toán.
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
05:40
(Laughter)
91
340695
2021
Như tại khu bình luận này,
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
có rất nhiều người la hét về cùng một ý kiến.
Phần bổ trợ khiến những bình luận này trở nên siêu nhỏ.
05:48
Like, here in this comment section,
93
348831
1696
(Tiếng cười)
Vậy giờ lượng điểm ảnh họ có trên màn hình
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
05:54
The plug-in makes their comments super small.
95
354111
2870
tỷ lệ thuận với giá trị thực tế họ đang đóng góp cho cuộc trò chuyện.
05:57
(Laughter)
96
357005
1008
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
(Tiếng cười)
(Tiếng vỗ tay)
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
06:07
(Laughter)
99
367890
1942
Plugin cũng hiển thị giá trị bất động sản của trường hình ảnh của chúng tôi
06:11
(Applause)
100
371345
3631
và bao nhiêu nhận thức được trở thành hàng hóa.
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
Khác nhiều nhà chặn quảng cáo,
cho từng quảng cáo bạn thấy trên trang mạng,
nó thể hiện lượng tiền bạn kiếm được.
06:21
and how much of our perception is being commoditized.
102
381004
3456
(Tiếng cười)
06:24
Different from ad blockers,
103
384912
1589
Chúng ta đang sống trong chiến trường giữa thực tế
06:26
for every ad you see on the web page,
104
386525
2472
và quảng cáo thương mại phân phối thực tế,
06:29
it shows the amount of money you should be earning.
105
389021
3407
nên phiên bản tiếp theo của phần bổ trợ có thể đánh phăng các quảng cáo đấy.
06:32
(Laughter)
106
392452
1245
06:34
We are living in a battlefield between reality
107
394356
2292
và cho bạn thấy sự vật thực sự ra sao.
06:36
and commercial distributed reality,
108
396672
2253
(Tiếng cười)
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
(Tiếng vỗ tay)
06:44
and show you things as they really are.
110
404439
2799
Bạn có thể tưởng tượng bao nhiêu hướng đi điều này có thể tuân theo.
06:47
(Laughter)
111
407262
1791
06:50
(Applause)
112
410335
3629
Tin tôi đi, tôi biết rủi ro khá cao nếu điều này trở thành một sản phẩm thực.
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
Và tôi tạo ra nó với ý định tốt
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
để đào tạo nhận thức chúng ta và loại bỏ các thiên vị.
Nhưng cách tiếp cận tương tự có thể bị dùng với ý định xấu,
07:04
And I created this with good intentions
115
424006
2939
07:06
to train our perception and eliminate biases.
116
426969
3837
như bắt buộc người dân tải một chương trình bổ trợ như thế
để điều khiển các bài viết công khai.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
Điều này thách thức để trở nên công bằng và riêng tư
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
mà không trở thành một lớp trung gian khác.
07:17
to control the public narrative.
119
437811
2126
Vậy thì tất cả những thứ này có ý nghĩa gì với chúng ta?
07:20
It's challenging to make it fair and personal
120
440768
2737
Mặc dù công nghệ đang tạo ra sự cô lập,
07:23
without it just becoming another layer of mediation.
121
443529
3155
chúng ta có thể sử dụng nó để kết nối thế giới một lần nữa
07:27
So what does all this mean for us?
122
447933
2662
bằng cách phá vỡ các kiểu mẫu và vượt lên nó.
07:31
Even though technology is creating this isolation,
123
451230
3733
07:34
we could use it to make the world connected again
124
454987
3602
Bằng cách khám phá chúng ta tạo ra giao diện công nghệ như thế nào,
chúng ta có thể thoát khỏi hành vi quen thuộc và máy móc
07:38
by breaking the existing model and going beyond it.
125
458613
3247
07:42
By exploring how we interface with these technologies,
126
462508
3338
và cuối cùng tìm thấy điểm chung của nhau.
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
Công nghệ không bao giờ là trung lập.
Nó cung cấp nội dung và tạo nên trạng thái thực tế.
07:51
and finally find common ground between each other.
128
471079
2670
Nó là một phần của vấn đề và là một phần của giải pháp.
07:54
Technology is never neutral.
129
474915
1789
Chúng ta sử dụng nó để khám phá điểm mù và tái đào tạo nhận thức của mình
07:57
It provides a context and frames reality.
130
477191
3019
08:00
It's part of the problem and part of the solution.
131
480234
2888
và kết quả, chọn cách ta nhìn nhau ra sao.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
Cảm ơn
(Tiếng vỗ tay)
08:09
and consequently, choose how we see each other.
133
489949
3506
08:13
Thank you.
134
493892
1191
08:15
(Applause)
135
495107
2685
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7