Art that reveals how technology frames reality | Jiabao Li

79,380 views ・ 2020-04-06

TED


वीडियो चलाने के लिए कृपया नीचे दिए गए अंग्रेजी उपशीर्षक पर डबल-क्लिक करें।

Translator: Agrata Jain Reviewer: Arvind Patil
00:12
I'm an artist and an engineer.
0
12887
2396
मैं एक कलाकार और इंजीनियर हूं।
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
और हाल ही में, मैं ये सोच रही रही थी कि टैकनोलजी कैसे मध्यस्थता की भूमिका
00:21
the way we perceive reality.
2
21105
2041
निभाता है, हमारे वास्तविकता के अनुभव में।
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
और ये अतिविशिष्ट और बारीक तरीके से किया जा रहा है।
00:29
Technology is designed to shape our sense of reality
4
29260
3646
टैकनोलजी, खुद को ढक कर, दुनिया का वास्तविक अनुभव
00:32
by masking itself as the actual experience of the world.
5
32930
3811
देने के लिए डिजाइन की गयी है।
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
फलस्वरूप, हम अचेत और अनजान बन रहे हैं
00:42
that it is happening at all.
7
42140
2185
कि यह सब हो रहा है।
00:45
Take the glasses I usually wear, for example.
8
45360
2488
उदाहरण के लिए, मैं आमतौर पर चश्मा पहनती हूं।
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
ये मुझे मेरे परिवेश का अनुभव कराने का हिस्सा बन गया है।
00:52
I barely notice them,
10
52352
1490
मेरा मुश्किल से उस पर
00:53
even though they are constantly framing reality for me.
11
53866
4085
ध्यान जाता है, हालांकि वो लगातार मेरे लिए वास्तविकता तैयार कर रहा है।
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
मैं जिस टैकनोलजी की बात कर रही हूँ, वो ये काम के लिए ही डिज़ाइन की गयी है:
01:02
change what we see and think
13
62487
2438
परिवर्तन जो हम देखते और सोचते हैं
01:04
but go unnoticed.
14
64949
1760
लेकिन जिस पर ध्यान नहीं जाता।
01:07
Now, the only time I do notice my glasses
15
67780
3269
अब मैं सिर्फ मेरे चश्मे को तब नोटिस करती हूं
01:11
is when something happens to draw my attention to it,
16
71073
3258
जब इस पर मेरा ध्यान आकर्षित करने के लिए कुछ हो,
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
जैसे जब चश्मा गंदा हो जाये या उसका नंबर बदल जाये।
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
तो मैंने खुद से पूछा,“एक कलाकार के रूप में, मैं क्या बना सकती हूँ
01:23
to draw the same kind of attention
19
83113
2447
जो उसी तरह से ध्यान आकर्षित करे
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
जैसे डिजिटल माध्यमों की तरह - समाचार संगठन, सोशल मीडिया प्लेटफॉर्म,
01:31
advertising and search engines --
21
91779
2261
विज्ञापन और खोज इंजन -
01:34
are shaping our reality?"
22
94064
2014
हमारी वास्तविकता को आकार दे रहे हैं? "
01:36
So I created a series of perceptual machines
23
96798
4772
इसलिए मैंने, एक अवधारणात्मक मशीनों की श्रृंखला बनाई
01:41
to help us defamiliarize and question
24
101594
3566
जो हमें अनजान रखने और सवाल करने में मदद करे, ताकि हम जान सके की,
01:45
the ways we see the world.
25
105184
2120
हम दुनिया को किस तरह से देखते हैं।
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
उदाहरण के लिए, आजकल, हम में से कई लोगों को एक तरह का एलर्जी रीऐक्शन है,
01:54
to ideas that are different from ours.
27
114916
2493
उन विचारों को लेकर जो हमारे विचारों से अलग है।
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
हमें इसका एहसास भी नहीं है कि इस तरह की मानसिक एलर्जी हममें विकसित हो गयी है।
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
इसलिए मैंने एक हेलमेट बनाया, जिसे लाल रंग से आर्टफिशल एलर्जी है।
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
यह लाल चीजों को बड़ा कर, अतिसंवेदनशीलता का अनुकरण करता है।
02:14
when you are wearing it.
31
134740
1280
जब आप इसे पहनते हैं।
02:16
It has two modes: nocebo and placebo.
32
136730
3558
इसके दो मोड हैं: नोसेबो और प्लेसेबो।
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
नोसेबो मोड में, हाइपरलर्जी का संवेदी अनुभव बनता है।
02:26
Whenever I see red, the red expands.
34
146653
2707
जब भी मैं लाल रंग देखूंगी, वह विस्तार होगा।
02:30
It's similar to social media's amplification effect,
35
150062
3531
ये सोशल् मीडिया के प्रवर्धन प्रभाव की तरह है,
02:33
like when you look at something that bothers you,
36
153617
2597
जैसे जब आप किसी ऐसी चीज को देखते हैं जो आपको परेशान करे
02:36
you tend to stick with like-minded people
37
156238
2928
तो आप समान विचारधारा वाले लोगों के साथ जुड़ना पसंद करते हैं
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
और मेस्इजस-मीम्स का आदान-प्रदान करते हैं, और आप और भी क्रोधित हो जाते हैं।
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
कभी-कभी, एक तुच्छ चर्चा बढ़ जाती है
02:47
and blown way out of proportion.
40
167960
2401
और अनुपात से बाहर हो जाती है।
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
शायद इसीलिए भी हम क्रोध की राजनीति में जी रहे हैं।
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
प्लेसीबो मोड में, इस एलर्जी के लिए एक कृत्रिम इलाज है।
03:00
Whenever you see red, the red shrinks.
43
180575
2292
जब भी आप लाल रंग देखते हैं, वह सिकुड़ जाता है।
03:03
It's a palliative, like in digital media.
44
183617
2875
ये डिजिटल मीडिया में आराम देता है।
03:06
When you encounter people with different opinions,
45
186516
2899
जब हम ऐसे लोगों के सामान आते हैं, जिनके विचार हमसे अलग हों तो
03:09
we will unfollow them,
46
189439
1477
हम उन्हें अनफॉलो कर देते हैं,
03:10
remove them completely out of our feeds.
47
190940
2748
उन्हें हमारे फ़ीड से पूरी तरह से निकाल देते हैं।
03:14
It cures this allergy by avoiding it.
48
194343
3203
इससे बचने से एलर्जी ठीक हो जाती है।
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
लेकिन इस तरह से, विरोधी विचारों से जानबूझ कर
03:22
makes human community hyperfragmented and separated.
50
202141
4056
अनदेखी करने से, मानव समुदाय अति खंडित और अलग होता है।
03:27
The device inside the helmet reshapes reality
51
207343
3059
हेलमेट के अन्दर का यंत्र वास्तविकता को बदल देता है।
03:30
and projects into our eyes through a set of lenses
52
210426
2950
और हमारी आँखों में, लेंस के एक सेट के माध्यम से
03:33
to create an augmented reality.
53
213400
1915
एक संवर्धित वास्तविकता बनाता है।
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
मैंने रंग लाल इसलिए लिया क्योंकि ये काफी गहरा और भावनात्मक है,
03:40
it has high visibility
55
220741
1958
इसकी दृश्यता ज़्यादा है,
03:42
and it's political.
56
222723
1278
और ये राजनीतिक है।
03:44
So what if we take a look
57
224390
1263
तो क्या होगा अगर हम
03:45
at the last American presidential election map
58
225677
3049
हेलमेट के माध्यम से पिछले अमेरिकी राष्ट्रपति चुनाव मानचित्र
03:48
through the helmet?
59
228750
1165
पर एक नज़र डालें?
03:49
(Laughter)
60
229939
1008
(हँसी)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
आप देख सकते हैं कि इससे कोई फर्क नहीं पड़ता कि आप
03:54
because the mediation alters our perceptions.
62
234568
3989
डेमोक्रेट हैं या रिपब्लिकन, क्योंकि मध्यस्थता हमारी धारणाओं को बदल देता है।
03:58
The allergy exists on both sides.
63
238581
3133
एलर्जी दोनों तरफ मौजूद है।
04:03
In digital media,
64
243134
1320
डिजिटल मीडिया में,
04:04
what we see every day is often mediated,
65
244478
3133
हम जो रोज देखते हैं वो अक्सर मध्यस्थता की जाती है,
04:07
but it's also very nuanced.
66
247635
1733
लेकिन बहुत बारीकी से।
04:09
If we are not aware of this,
67
249758
1995
अगर हमें इसकी जानकारी नहीं है,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
तो हम कई प्रकार की मानसिक एलर्जी से असुरक्षित रहेंगे।
04:18
Our perception is not only part of our identities,
69
258900
3510
हमारी धारणा सिर्फ हमारी पहचान का हिस्सा नहीं है,
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
बल्कि डिजिटल मीडिया में, ये मूल्य श्रृंखला का एक हिस्सा भी है।
04:27
Our visual field is packed with so much information
71
267992
3575
हमारा दृश्य क्षेत्र इतनी जानकारी से भरा हुआ है कि
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
हमारी धारणा एक वस्तु बन गई है, अचल संपत्ति मूल्य के साथ।
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
डिजाइन का उपयोग, हमारे अचेतन पक्षपात शोषण करने के लिए किया जाता है,
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
एल्गोरिदम सामग्री का पक्ष लेते हैं, जो हमारी राय की पुष्टि करता है
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
ताकि हमारे देखने के क्षेत्र के हर छोटे से कोने को विज्ञापनों को बेचने
04:49
to sell ads.
76
289307
1342
के लिए उपनिवेश किया जा सके।
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
जैसे, जब ये छोटी सी लाल बिंदी आपके नोटफकैशन में आती है,
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
ये बढ़ती और फैलती है, और आपके दिमाग में, यह बहुत बढ़ी है।
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
इसलिए मैंने थोड़ी गंदगी डालने के तरीकों के बारे में सोचना शुरू कर दिया,
05:03
or change the lenses of my glasses,
80
303956
2698
जैसे मेरे चश्मे का लेंस बदलना,
05:06
and came up with another project.
81
306678
2098
और मैं एक अन्य परियोजना के साथ आयी।
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
अब,ध्यान रखें कि यह वैचारिक है। ये एक वास्तविक प्राडक्ट नहीं है।
05:13
It's a web browser plug-in
83
313676
2073
ये एक वेब ब्राउज़र प्लग-इन है जो हमें
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
उन चीजों को नोटिस करने में मदद कर सकता है जिन्हे हम आमतौर पर नजरअंदाज कर देते हैं।
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
हेलमेट की तरह, प्लग-इन वास्तविकता की आकृति बदल देता है,
05:24
but this time, directly into the digital media itself.
86
324503
3397
लेकिन इस बार सीधे डिजिटल मीडिया में ही।
05:29
It shouts out the hidden filtered voices.
87
329066
3156
ये छिपी हुई फ़िल्टर्ड आवाज़ों को उच्च स्वर देता है।
05:32
What you should be noticing now
88
332246
1573
अब आप जो ध्यान देंगे
05:33
will be bigger and vibrant,
89
333843
2509
वो बड़ा और जीवंत होगा, जैसे कि यहाँ,
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
ये कहानी लिंग पूर्वाग्रह के बारे में है, जो बिल्लियों के समुद्र से उभरी है।
05:40
(Laughter)
91
340695
2021
(हँसी)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
प्लग-इन चीजों को कम कर सकता है जो एल्गोरिथ्म द्वारा प्रवर्धित की गयी है।
05:48
Like, here in this comment section,
93
348831
1696
जैसे, यहाँ इस कमेंट अनुभाग में,
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
बहुत सारे लोग की एक ही राय है।
05:54
The plug-in makes their comments super small.
95
354111
2870
प्लग-इन उनके कमेंट को काफी छोटा बनाता है।
05:57
(Laughter)
96
357005
1008
(हँसी)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
तो अब जो स्क्रीन पर पिक्सेल उपस्थिति की मात्रा है
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
वो वास्तविक मूल्य से आनुपातिक है जो बातचीत में योगदान दे रहे हैं।
06:07
(Laughter)
99
367890
1942
(हँसी)
06:11
(Applause)
100
371345
3631
(तालियां)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
प्लग-इन, रियल एस्टेट दृश्य क्षेत्र और हमारी धारणा कितनी संशोधित की जा रही है
06:21
and how much of our perception is being commoditized.
102
381004
3456
की संख्या को भी दर्शाता है।
06:24
Different from ad blockers,
103
384912
1589
ये विज्ञापन ब्लॉकर्स से अलग है,
06:26
for every ad you see on the web page,
104
386525
2472
हर एक विज्ञापन जो आप वेब पेज पे देखते हैं,
06:29
it shows the amount of money you should be earning.
105
389021
3407
उसके लिए ये दर्शाता है कि आपको कितनी कमाई करनी चाहिए।
06:32
(Laughter)
106
392452
1245
(हँसी)
06:34
We are living in a battlefield between reality
107
394356
2292
हम वास्तविकता और वाणिज्यिक वितरित वास्तविकता
06:36
and commercial distributed reality,
108
396672
2253
के बीच एक युद्ध के मैदान में रह रहे हैं,
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
तो प्लग-इन का अगला वर्श़न उस व्यावसायिक वास्तविकता को दूर कर सकता है
06:44
and show you things as they really are.
110
404439
2799
और आपको चीजें दिखाते हैं जैसे वे वास्तव में हैं।
06:47
(Laughter)
111
407262
1791
(हँसी)
06:50
(Applause)
112
410335
3629
(तालियां)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
खैर, आप कल्पना कर सकते हैं कि वास्तव में ये कितनी दिशाओं में जा सकता है।
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
विश्वास करें, मुझे पता है कि जोखिम अधिक है अगर ये वास्तविक प्राडक्ट बन जाए।
07:04
And I created this with good intentions
115
424006
2939
और मैंने इसे अच्छे इरादों के साथ बनाया है
07:06
to train our perception and eliminate biases.
116
426969
3837
हमारी धारणा को प्रशिक्षित और पक्षपात को खत्म करने के लिए।
07:10
But the same approach could be used with bad intentions,
117
430830
3728
लेकिन येही दृष्टिकोण, बुरे इरादों के साथ इस्तेमाल किया जा सकता है,
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
जैसे नागरिकों को मजबूर करना प्लग-इन इंस्टॉल करने के लिए
07:17
to control the public narrative.
119
437811
2126
ताकि सार्वजनिक कथा को नियंत्रित कर सके।
07:20
It's challenging to make it fair and personal
120
440768
2737
इसे निष्पक्ष और व्यक्तिगत होये बिना बनाना चुनौतीपूर्ण है
07:23
without it just becoming another layer of mediation.
121
443529
3155
बिना इसके मध्यस्थता की एक और परत बनना।
07:27
So what does all this mean for us?
122
447933
2662
तो ये सब हमारे लिए क्या मायने रखता है?
07:31
Even though technology is creating this isolation,
123
451230
3733
भले ही टैकनोलजी अलगाव पैदा कर रहा है,
07:34
we could use it to make the world connected again
124
454987
3602
हम मौजूदा मॉडल को तोड़कर और इसके पार जाकर,
07:38
by breaking the existing model and going beyond it.
125
458613
3247
दुनिया को फिरसे जोड़ सकते हैं।
07:42
By exploring how we interface with these technologies,
126
462508
3338
ये खोज कर कि हम टैकनोलजी से कैसे इंटरफ़ेस करते हैं,
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
हम अपने अभ्यस्त, लगभग मशीन की तरह व्यवहार से बाहर निकल सकते हैं,
07:51
and finally find common ground between each other.
128
471079
2670
और आखिरकार, एक दूसरे में समानता ढूंढ सकते हैं।
07:54
Technology is never neutral.
129
474915
1789
टैकनोलजी कभी निष्पक्ष नहीं होती है।
07:57
It provides a context and frames reality.
130
477191
3019
ये एक संदर्भ और वास्तविकता प्रदान करती है।
08:00
It's part of the problem and part of the solution.
131
480234
2888
ये समस्या का हिस्सा है और समाधान का भी।
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
हम इसका इस्तेमाल अपने अन्ध बिन्दु को उजागर करने के लिए कर सकते हैं।
08:09
and consequently, choose how we see each other.
133
489949
3506
अपनी धारणा को बनाए रखें और फलतः चुनें कि हम एक दूसरे को कैसे देखते हैं।
08:13
Thank you.
134
493892
1191
धन्यवाद।
08:15
(Applause)
135
495107
2685
(तालियां)
इस वेबसाइट के बारे में

यह साइट आपको YouTube वीडियो से परिचित कराएगी जो अंग्रेजी सीखने के लिए उपयोगी हैं। आप दुनिया भर के शीर्षस्थ शिक्षकों द्वारा पढ़ाए जाने वाले अंग्रेजी पाठ देखेंगे। वहां से वीडियो चलाने के लिए प्रत्येक वीडियो पृष्ठ पर प्रदर्शित अंग्रेजी उपशीर्षक पर डबल-क्लिक करें। उपशीर्षक वीडियो प्लेबैक के साथ सिंक में स्क्रॉल करते हैं। यदि आपकी कोई टिप्पणी या अनुरोध है, तो कृपया इस संपर्क फ़ॉर्म का उपयोग करके हमसे संपर्क करें।

https://forms.gle/WvT1wiN1qDtmnspy7