Do you really know why you do what you do? | Petter Johansson

193,440 views ・ 2018-03-27

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Khoa Duong Reviewer: Loan Nguyen
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
Vì sao bạn nghĩ những người giàu nên trả thuế nhiều hơn?
00:16
Why did you buy the latest iPhone?
1
16400
2376
Vì sao bạn chọn mua chiếc iPhone mới nhất?
00:18
Why did you pick your current partner?
2
18800
2456
Vì sao bạn chọn người yêu hiện tại?
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
Và vì sao nhiều người lại bỏ phiếu cho Donald Trump đến vậy?
00:24
What were the reasons, why did they do it?
4
24720
2520
Lý do là gì? Vì sao họ làm vậy?
00:27
So we ask this kind of question all the time,
5
27990
2106
Ta luôn có những câu hỏi tương tự như thế,
00:30
and we expect to get an answer.
6
30120
1736
và kỳ vọng có được câu trả lời.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
Và khi được hỏi, ta hi vọng sẽ có câu trả lời
00:35
to simply tell why we did as we did.
8
35040
2480
để giải thích lý do cho những việc mình đã làm.
00:38
But do we really know why?
9
38440
1720
Nhưng ta có thực sự biết tại sao không?
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
Khi bạn nói bạn thích George Clooney hơn Tom Hanks,
00:44
due to his concern for the environment,
11
44479
2057
vì anh ấy quan tâm đến môi trường.
00:46
is that really true?
12
46560
1200
Điều đó có thật không?
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
Bạn có thể hoàn toàn thật tâm tin rằng
00:51
that this is the reason that drives your choice,
14
51080
2936
đây là lý do đưa đến sự lựa chọn của mình,
00:54
but to me, it may still feel like something is missing.
15
54040
2600
nhưng với tôi, dường như có gì đó thiếu sót.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
Hiện nay, do bản chất của sự chủ quan,
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
thực sự rất khó để chứng minh người ta hiểu sai về bản thân họ.
01:06
So I'm an experimental psychologist,
18
66600
2136
Tôi là một nhà tâm lý học thực nghiệm,
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
và đây là vấn đề chúng tôi đang cố gắng giải quyết trong phòng thí nghiệm.
01:12
So we wanted to create an experiment
20
72320
2176
Chúng tôi muốn tạo ra một thực nghiệm
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
để thử thách điều mọi người nói về chính họ,
01:18
regardless of how certain they may seem.
22
78080
2680
bất kể họ có vẻ chắc chắn như thế nào.
01:21
But tricking people about their own mind is hard.
23
81960
2736
Nhưng để đánh lừa tâm trí người khác rất khó khăn.
01:24
So we turned to the professionals.
24
84720
2376
Vì thế chúng tôi đã tìm tới những chuyên gia -
01:27
The magicians.
25
87120
1200
những nhà ảo thuật.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
Họ là chuyên gia tạo ra ảo giác về sự lựa chọn tự do.
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
Khi họ nói: "Hãy chọn một lá bài bất kỳ,"
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
là lúc bạn biết lựa chọn của mình đã không còn được tự do nữa.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
Chúng tôi đã có một vài buổi thảo luận tuyệt vời
01:40
with a group of Swedish magicians,
30
100600
1856
với một nhóm các ảo thuật gia Thụy Điển
01:42
and they helped us create a method
31
102480
1642
và họ đã giúp tạo ra một cách thức
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
có thể điều khiển kết quả lựa chọn của mọi người.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
Cách này cho chúng ta biết khi nào con người mâu thuẫn với bản thân
01:51
even if they don't know this themselves.
34
111720
2040
ngay cả khi họ không nhận ra điều đó.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
Giờ tôi sẽ chiếu một phim ngắn về sự điều khiển này.
01:59
So it's quite simple.
36
119160
1416
Nó khá là đơn giản.
02:00
The participants make a choice,
37
120600
2136
Những người tham gia đưa ra lựa chọn của mình
02:02
but I end up giving them the opposite.
38
122760
2256
nhưng tôi sẽ đưa họ phương án ngược lại.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
Chúng tôi muốn xem: Họ phản ứng thế nào, và họ nói gì?
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
Nó khá đơn giản, hãy xem bạn có nhận ra trò ảo thuật này không.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
Đoạn phim quay với người tham gia thật họ không biết chuyện gì đang xảy ra.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
(Video): PJ: Xin chào, tôi là Petter.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
Nữ: Xin chào tôi là Becka.
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
PJ: Tôi sẽ cho cô xem những bức ảnh thế này.
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
Và cô phải chọn ra bức ảnh thu hút hơn.
02:27
Becka: OK.
46
147560
1216
Becka: OK.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
PJ: Và đôi khi, tôi sẽ hỏi vì sao cô thích gương mặt đó hơn.
02:32
Becka: OK.
48
152000
1216
Becka: OK.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
PJ: Sẵn sàng? BK: Vâng.
02:43
PJ: Why did you prefer that one?
50
163120
1816
PJ: Vì sao cô thích tấm này hơn?
02:44
Becka: The smile, I think.
51
164960
1496
Becka: Nụ cười, tôi nghĩ vậy.
02:46
PJ: Smile.
52
166480
1200
PJ: Nụ cười.
02:52
Man: One on the left.
53
172400
1240
Nam: Tấm bên trái
02:57
Again, this one just struck me.
54
177520
1640
Lần nữa, tấm này đập vào mắt tôi.
02:59
Interesting shot.
55
179760
1616
Một bức ảnh thú vị.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
Vì tôi là nhiếp ảnh gia, tôi thích hướng sáng và tổng thể ảnh.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
PJ: Sau đây là cách họ bị đánh lừa.
03:10
(Video) Woman 1: This one.
58
190120
1280
Nữ 1: Bức này.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
PJ: Họ nhận tấm ảnh ngược với lựa chọn của mình.
03:20
And let's see what happens.
60
200520
1600
Và hãy xem điều gì sẽ xảy ra.
03:28
Woman 2: Um ...
61
208240
1200
Nữ 2: Ừm...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
Tôi nghĩ anh này trông ngây thơ hơn anh chàng còn lại.
03:45
Man: The one on the left.
63
225360
1240
Nam: Tấm bên trái.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
Tôi thích nụ cười, nét mặt và mũi của cô ấy.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
Nên nó làm tôi chú ý, và kiểu tóc của cô ấy.
04:00
Woman 3: This one.
66
240040
1200
Nữ 3: Bức này.
04:03
I like the smirky look better.
67
243520
1576
Tôi thích vẻ ngạo nghễ này hơn.
04:05
PJ: You like the smirky look better?
68
245120
2000
PJ: Bạn thích gương mặt ngạo nghễ hơn?
04:09
(Laughter)
69
249680
3176
(Cười)
04:12
Woman 3: This one.
70
252880
1200
Nữ 3: Bức này.
04:15
PJ: What made you choose him?
71
255280
1400
PJ: Tại sao bạn chọn anh ấy?
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
Nữ 3: Tôi không biết, anh ấy trông hơi giống người Hobbit.
04:20
(Laughter)
73
260440
2056
(Cười)
04:22
PJ: And what happens in the end
74
262520
1496
PJ: Và điều gì xảy ra lúc cuối
04:24
when I tell them the true nature of the experiment?
75
264040
3096
khi tôi nói với họ sự thật về cuộc thí nghiệm?
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
PJ: Vâng, được rồi. Tôi cần phải hỏi anh vài câu.
04:29
Man: Sure.
77
269640
1216
Nam: Được thôi.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
PJ: Anh nghĩ sao về buổi thí nghiệm, nó dễ hay khó?
04:33
Man: It was easy.
79
273880
1240
Nam: Nó dễ.
04:36
PJ: During the experiments,
80
276040
1336
PJ: Trong lúc thí nghiệm,
04:37
I actually switched the pictures three times.
81
277400
3336
thực ra tôi đã thay đổi những bức ảnh ba lần.
04:40
Was this anything you noticed?
82
280760
1576
Anh có nhận ra điều này không?
04:42
Man: No. I didn't notice any of that.
83
282360
1816
Nam: Không. Tôi không để ý.
04:44
PJ: Not at all? Man: No.
84
284200
1496
PJ: Không một chút nào ư?
04:45
Switching the pictures as far as ...
85
285720
2096
Nam: Không. Tráo mấy bức ảnh là...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
PJ: Vâng, anh đã chọn một bức ảnh nhưng thực ra tôi lại đưa anh bức ảnh khác.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
Nam: Bức khác? OK, khi nào--
04:53
No. Shows you how much my attention span was.
88
293520
2256
Không. Chứng tỏ là độ tập trung của tôi chỉ có như vậy.
04:55
(Laughter)
89
295800
1520
(Cười)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
PJ: Chị có để ý thấy thi thoảng trong lúc thí nghiệm
05:01
I switched the pictures?
91
301920
2136
tôi đã tráo những bức ảnh?
05:04
Woman 2: No, I did not notice that.
92
304080
2016
Nữ 2: Không, tôi không thấy.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
PJ: Bạn đã chỉ vào một bức ảnh, nhưng tôi lại đưa bạn bức còn lại.
05:09
No inclination of that happening?
94
309920
1616
Bạn không nhận ra gì ư?
05:11
Woman 2: No.
95
311560
1576
Nữ 2: Không.
05:13
Woman 2: I did not notice.
96
313160
1256
Tôi không thấy điều đó.
05:14
(Laughs)
97
314440
1936
(Cười)
05:16
PJ: Thank you.
98
316400
1216
PJ: Cảm ơn bạn.
05:17
Woman 2: Thank you.
99
317640
1376
Nữ 2: Cảm ơn.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
PJ: OK, có thể bây giờ bạn đã nhận ra,
05:21
the trick is that I have two cards in each hand,
101
321120
2256
mánh khoé là tôi có hai lá bài trong mỗi tay,
05:23
and when I hand one of them over,
102
323400
1576
và khi tôi đưa một lá,
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
chiếc đen biến mất vào phần màu đen ở trên bàn.
05:30
So using pictures like this,
104
330640
1736
Vậy sử dụng những bức ảnh thế này,
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
thường thì không tới hơn 20% người tham gia nhận ra điều này.
05:36
And as you saw in the movie,
106
336800
1416
Như bạn thấy trong đoạn phim
05:38
when in the end we explain what's going on,
107
338240
3176
lúc cuối khi chúng tôi giải thích điều xảy ra,
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
họ rất ngạc nhiên và thường không tin mánh lừa đó được tạo ra.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
Điều này cho thấy hiệu ứng này khá mạnh mẽ và hiệu quả.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
Nhưng nếu bạn quan tâm về sự hiểu biết bản thân như tôi,
05:53
the more interesting bit is,
111
353320
1336
điều thú vị hơn là
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
họ đã nói gì khi giải thích những lý do của mình?
05:58
So we've done a lot of analysis
113
358640
1496
Chúng tôi đã làm nhiều phân tích
06:00
of the verbal reports in these experiments.
114
360160
2080
về báo cáo bằng lời nói trong thí nghiệm này.
06:03
And this graph simply shows
115
363360
2456
Và biểu đồ này đơn giản cho thấy
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
rằng nếu bạn so sánh những gì họ nói trong thử nghiệm bị kiểm soát
06:10
with a nonmanipulated trial,
117
370640
1376
với một thử nghiệm không bị,
06:12
that is when they explain a normal choice they've made
118
372040
2776
đó là khi họ giải thích đó là một hành động bình thường
06:14
and one where we manipulated the outcome,
119
374840
2496
và khi chúng tôi điều khiển kết quả,
06:17
we find that they are remarkably similar.
120
377360
2456
chúng tôi thấy chúng giống nhau một cách kinh ngạc.
06:19
So they are just as emotional, just as specific,
121
379840
3056
Vậy chúng chỉ theo cảm xúc, một cách riêng biệt,
06:22
and they are expressed with the same level of certainty.
122
382920
3200
và chúng được thể hiện với mức độ chắc chắn giống nhau.
06:27
So the strong conclusion to draw from this
123
387120
2336
Một kết luận chắc chắn từ điều này
06:29
is that if there are no differences
124
389480
2216
là nếu không có sự khác biệt
06:31
between a real choice and a manipulated choice,
125
391720
3696
giữa lựa chọn thật và lựa chọn bị điều khiển,
06:35
perhaps we make things up all the time.
126
395440
2440
thì có lẽ chúng ta luôn bịa ra mọi thứ.
06:38
But we've also done studies
127
398680
1336
Nhưng chúng tôi cũng tìm tòi
06:40
where we try to match what they say with the actual faces.
128
400040
3016
nơi chúng tôi cố kết nối điều họ nói với những gương mặt thực.
06:43
And then we find things like this.
129
403080
1880
Và chúng tôi tìm thấy điều như sau.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
Đây, người đàn ông này, anh ấy thích cô gái bên trái,
06:50
he ended up with the one to the right.
131
410840
1856
anh ấy nhận tấm bên phải.
06:52
And then, he explained his choice like this.
132
412720
2816
Và rồi, anh ấy giải thích lựa chọn của mình như sau.
06:55
"She is radiant.
133
415560
1296
"Cô ấy rạng rỡ.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
Tôi sẽ tiến tới cô ấy trong quán bar thay vì người còn lại.
07:00
And I like earrings."
135
420000
1616
Và tôi thích đôi khuyên tai."
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
Và bất kỳ lý do gì khiến anh ấy chọn cô gái bên trái lúc đầu,
07:05
it can't have been the earrings,
137
425160
1576
nó không thể là đôi khuyên tai,
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
vì chúng ở trên người cô gái bên phải.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
Vậy đây là ví dụ rõ ràng của việc giải thích ở sau cùng.
07:13
So they just explained the choice afterwards.
140
433440
2800
Họ chỉ giải thích lý do sau đó.
07:17
So what this experiment shows is,
141
437320
2296
Thí nghiệm này cho thấy,
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
nếu chúng ta không thể phát hiện sự lựa chọn bị thay đổi,
07:23
we will immediately start to explain them in another way.
143
443320
3200
ta sẽ ngay lập tức lý giải chúng theo cách khác.
07:27
And what we also found
144
447520
1256
Và điều chúng tôi tìm thấy
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
là những người tham gia thường thích lựa chọn còn lại hơn,
07:32
that they were led to believe they liked.
146
452040
2256
rằng họ được dẫn dắt để tin rằng họ thích.
07:34
So if we let them do the choice again,
147
454320
2016
Vậy nên nếu chúng ta để họ chọn lần nữa,
07:36
they will now choose the face they had previously rejected.
148
456360
3760
họ sẽ chọn gương mặt mà trước đó họ loại bỏ.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
Chúng tôi gọi hiệu ứng này là "lựa chọn mù mờ."
07:43
And we've done a number of different studies --
150
463840
2216
Và chúng tôi tiến hành nhiều nghiên cứu khác--
07:46
we've tried consumer choices,
151
466080
2536
chúng tôi đã thử những lựa chọn tiêu dùng,
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
những lựa chọn dựa trên mùi vị và thậm chí những vấn đề lý luận.
07:53
But what you all want to know is of course
153
473080
2056
Nhưng điều bạn muốn biết chắc chắn là
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
điều này có mở rộng ra cả những lựa chọn phức tạp hơn, ý nghĩa hơn?
07:59
Like those concerning moral and political issues.
155
479120
3080
Như những điều liên quan tới vấn đề đạo đức và chính trị.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
Và thí nghiệm tiếp theo, nó cần một chút nền tảng.
08:08
So in Sweden, the political landscape
157
488640
4256
Ở Thụy Điển, chính trường
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
bị chi phối bởi liên minh cánh tả và cánh hữu.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
Và cử tri có thể di chuyển một chút giữa các đảng trong mỗi liên minh,
08:22
but there is very little movement between the coalitions.
160
502160
2760
nhưng có rất ít sự dịch chuyển giữa những liên minh.
08:25
And before each elections,
161
505680
1976
Và trước mỗi buổi bầu cử,
08:27
the newspapers and the polling institutes
162
507680
4216
các tờ báo và các viện bỏ phiếu
08:31
put together what they call "an election compass"
163
511920
2616
tập hợp cái được gọi là "chiếc la bàn bầu cử"
08:34
which consists of a number of dividing issues
164
514560
3336
bao gồm những vấn đề gây chia rẽ
08:37
that sort of separates the two coalitions.
165
517920
2336
đã phân tách hai phía liên minh.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
Mấy thứ như có nên tăng thuế trên giá gas,
08:44
or if the 13 months of paid parental leave
167
524039
4096
hoặc có lương tháng 13 cho nhân viên nghỉ hộ sản
08:48
should be split equally between the two parents
168
528159
2496
nên được chia đều cho cả bố và mẹ
08:50
in order to increase gender equality.
169
530679
2721
để gia tăng bình đẳng giới.
08:54
So, before the last Swedish election,
170
534840
2216
Thế là, trước cuộc bầu cử ở Thụy Điển vừa qua,
08:57
we created an election compass of our own.
171
537080
2600
chúng tôi tạo ra chiếc la bàn bầu cử.
09:00
So we walked up to people in the street
172
540480
2136
Chúng tôi tiếp cận những người trên đường
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
và hỏi nếu họ muốn làm một khảo sát nhanh về chính trị.
09:06
So first we had them state their voting intention
174
546000
2456
Đầu tiên, chúng tôi cho họ nêu ý định bầu cử của họ
09:08
between the two coalitions.
175
548480
1360
giữa hai bên liên minh.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
Sau đó chúng tôi hỏi họ 12 câu hỏi này.
09:14
They would fill in their answers,
177
554360
1976
Họ sẽ điền vào câu trả lời,
09:16
and we would ask them to discuss,
178
556360
1616
và chúng tôi sẽ mời họ bàn luận:
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
Vì sao bạn nghĩ thuế gas nên tăng?
09:23
And we'd go through the questions.
180
563520
2096
Và chúng tôi đi qua những câu hỏi.
09:25
Then we had a color coded template
181
565640
3896
Và rồi chúng tôi có mẫu mã màu
09:29
that would allow us to tally their overall score.
182
569560
2936
mà cho phép chúng tôi tính điểm tổng thể của họ.
09:32
So this person would have one, two, three, four
183
572520
3456
Người này sẽ có một, hai, ba, bốn
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
năm, sáu, bảy, tám, chín điểm ở phía bên trái,
09:39
so he would lean to the left, basically.
185
579320
2680
có nghĩa anh ấy sẽ thiên về phía bên trái, đơn giản vậy.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
Và cuối cùng, chúng tôi yêu cầu họ điền ý định bầu cử của họ một lần nữa.
09:48
But of course, there was also a trick involved.
187
588160
2280
Nhưng tất nhiên, có một mánh khoé.
09:51
So first, we walked up to people,
188
591360
2176
Trước tiên, chúng tôi tiếp cận mọi người,
09:53
we asked them about their voting intention
189
593560
2056
chúng tôi hỏi họ về ý định bầu cử của họ
09:55
and then when they started filling in,
190
595640
2256
và khi họ bắt đầu điền thông tin,
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
chúng tôi sẽ điền vào một nhóm những câu trả lời theo chiều hướng ngược lại.
10:03
We would put it under the notepad.
192
603400
2576
Chúng tôi sẽ đặt nó ở dưới tờ note.
10:06
And when we get the questionnaire,
193
606000
2776
Và khi chúng tôi nhận lại tờ câu hỏi,
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
chúng tôi chỉ đơn giản dán nó lên câu trả lời của người tham gia.
10:16
So there, it's gone.
195
616000
1240
Và đó, nó biến mất rồi.
10:24
And then we would ask about each of the questions:
196
624280
2376
Và rồi chúng tôi sẽ hỏi về từng câu hỏi:
10:26
How did you reason here?
197
626680
1536
Bạn giải thích câu này thế nào?
10:28
And they'll state the reasons,
198
628240
1736
Họ nêu lý do của mình,
10:30
together we will sum up their overall score.
199
630000
2480
và chúng tôi sẽ kết hợp chúng với điểm số sơ bộ.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
Cuối cùng, họ nêu lại ý định bầu cử một lần nữa.
10:41
So what we find first of all here,
201
641960
1656
Đầu tiên chúng tôi thấy ở đây,
10:43
is that very few of these manipulations are detected.
202
643640
4216
là mánh khoé này rất ít khi bị phát hiện.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
Và họ không phát hiện ra khi họ nhận thức được điều này
10:50
"OK, you must have changed my answer,"
204
650560
1856
"OK, hẳn là anh đã thay đáp án của tôi".
10:52
it was more the case that,
205
652440
1256
Mà chủ yếu là,
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"Tôi chắc hẳn đã hiểu sai câu hỏi khi lần đầu tiên đọc nó.
10:56
Can I please change it?"
207
656920
1240
Tôi đổi nó được không?"
10:59
And even if a few of these manipulations were changed,
208
659080
5136
Và cả khi vài trường hợp bị thay đổi,
11:04
the overall majority was missed.
209
664240
2136
thì về tổng quan mọi người đều không biết.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
Chúng tôi tráo đổi 90% câu trả lời của người tham gia
11:10
from left to right, right to left, their overall profile.
211
670080
3160
từ trái sang phải, phải sang trái, hồ sơ tổng quan của họ.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
Và điều gì xảy ra sau đó, khi họ được hỏi về động cơ lựa chọn?
11:20
And here we find much more interesting verbal reports
213
680160
3056
Và chúng tôi tìm ra những báo cáo thú vị giữa ngôn ngữ
11:23
than compared to the faces.
214
683240
2016
rồi so sánh với nét mặt của họ.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
Họ phát biểu thế này, tôi sẽ đọc cho bạn nghe:
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
"Sự kiểm soát email và phân luồng internet diện rộng của nhà nước
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
nên được phép để chống lại tội phạm quốc tế và khủng bố"
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"Vậy bạn phần nào đó đồng ý với phát biểu này". "Vâng."
11:40
"So how did you reason here?"
219
700580
1500
"Lý do của bạn là gì?"
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"À, kiểu như, bởi vì tội phạm quốc tế và khủng bố rất nguy hiểm,
11:48
I think there should be those kinds of tools."
221
708560
2776
nên tôi nghĩ chúng ta cần có vài công cụ như thế."
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
Và họ nhớ về cuộc tranh luận xuất hiện trên tờ báo sáng.
11:55
"Like in the newspaper today,
223
715000
1616
"Như báo hôm nay có đăng,
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
nó nói rằng họ có thể theo dõi điện thoại trong nhà tù,
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
nếu như một tên trùm muốn tiếp tục phạm tội.
12:03
And I think it's madness that we have so little power
226
723600
2816
Và tôi nghĩ thật là điên rồ khi chúng ta có quá ít quyền lực
12:06
that we can't stop those things
227
726440
1656
để ngăn cản những điều này
12:08
when we actually have the possibility to do so."
228
728120
2936
khi chúng ta thực sự có khả năng để làm điều đó."
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
Và sau đấy có một chút mâu thuẫn diễn ra:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"Tôi không thích cách họ biết được những gì tôi làm,
12:16
but I still think it's worth it in the long run."
231
736400
2576
nhưng tôi vẫn nghĩ nó đáng giá về lâu dài"
12:19
So, if you didn't know that this person
232
739000
2536
Nếu bạn không biết về người này
12:21
just took part in a choice blindness experiment,
233
741560
2256
vừa tham gia vào một thử nghiệm lựa chọn mù,
12:23
I don't think you would question
234
743840
1856
thì tôi không nghĩ bạn sẽ thắc mắc
12:25
that this is the true attitude of that person.
235
745720
3120
rằng đây có phải là thái độ thực sự của họ.
12:29
And what happens in the end, with the voting intention?
236
749800
2856
Điều gì xảy ra vào phút cuối, với xu hướng bầu cử?
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
Điều chúng tôi tìm kiếm rõ ràng bị ảnh hưởng bởi bảng câu hỏi.
12:37
So we have 10 participants
238
757400
1736
Chúng tôi có mười người tham gia
12:39
shifting from left to right or from right to left.
239
759160
2976
chuyển từ trái sang phải hoặc từ phải sang trái.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
Và có 19 người khác chuyển từ chắc chắn
12:44
to being uncertain.
241
764720
1456
sang hoài nghi chủ ý bầu chọn.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
Một số khác thì chuyển từ hoài nghi sang chắc chắn.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
Và sau đó ở đây có một vài người tham gia lại luôn cảm thấy hoài nghi.
12:54
And that number is interesting
244
774080
1576
Con số đó khá là thú vị,
12:55
because if you look at what the polling institutes say
245
775680
4616
bởi nếu như bạn nhìn thấy khảo sát từ viện bỏ phiếu, nói rằng
13:00
the closer you get to an election,
246
780320
1656
khi bạn càng gần đến cuộc bầu cử,
13:02
the only people that are sort of in play
247
782000
2136
những người thuộc tuýp rong chơi
13:04
are the ones that are considered uncertain.
248
784160
2656
thường là những người có thái độ không chắc chắn.
13:06
But we show there is a much larger number
249
786840
3216
Nhưng chúng ta cần cho thấy có một con số lớn hơn
13:10
that would actually consider shifting their attitudes.
250
790080
2800
sẽ thực sự có thể chuyển đổi thái độ của họ.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
Và tôi phải chỉ ra rằng, dĩ nhiên, bạn không được phép sử dụng điều này
13:17
as an actual method to change people's votes
252
797160
2616
như một biện pháp thực sự để thay đổi phiếu bầu
13:19
before an election,
253
799800
1496
trước khi cuộc bầu cử diễn ra,
13:21
and we clearly debriefed them afterwards
254
801320
3616
chúng tôi giải thích rõ lại điều này với họ sau đó
13:24
and gave them every opportunity to change back
255
804960
2296
và cho họ cơ hội để thay đổi trở lại
13:27
to whatever they thought first.
256
807280
2480
lựa chọn ban đầu của mình.
13:30
But what this shows is that if you can get people
257
810600
2336
Nhưng điều này cho thấy nếu bạn có thể khiến họ
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
thấy góc nhìn đối lập và bắt đầu một cuộc đối thoại với chính mình,
13:38
that could actually make them change their views.
259
818520
2920
điều đó sẽ thực sự khiến họ thay đổi quan điểm của mình.
13:42
OK.
260
822400
1200
Được rồi.
13:44
So what does it all mean?
261
824760
1656
Vậy những điều này nghĩa là gì?
13:46
What do I think is going on here?
262
826440
2416
Điều gì đang diễn ra ở đây?
13:48
So first of all,
263
828880
1216
Đầu tiên,
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
đa phần những thứ chúng ta gọi là "sự tự tri" thực ra là "sự tự diễn dịch".
13:55
So I see myself make a choice,
265
835000
2496
Khi tôi đưa ra lựa chọn,
13:57
and then when I'm asked why,
266
837520
2776
và khi tôi được hỏi tại sao,
14:00
I just try to make as much sense of it as possible
267
840320
2536
tôi chỉ cố làm mọi thứ trở nên hợp lý hết mức có thể
14:02
when I make an explanation.
268
842880
1936
khi tôi giải thích chúng.
14:04
But we do this so quickly and with such ease
269
844840
3016
Nhưng chúng ta làm nhanh và quá dễ dàng
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
và nghĩ rằng mình thực sự biết câu trả lời khi chúng ta giải thích được tại sao.
14:13
And as it is an interpretation,
271
853040
3096
Và bởi vì đó là sự diễn dịch,
14:16
of course we sometimes make mistakes.
272
856160
2296
dĩ nhiên sẽ có lúc sai lầm.
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
Nó giống như cách chúng ta mắc lỗi khi cố gắng hiểu người khác.
14:23
So beware when you ask people the question "why"
274
863160
3696
Vậy nên cẩn thận khi bạn hỏi người khác câu hỏi "Tại sao"
14:26
because what may happen is that, if you asked them,
275
866880
4896
vì điều có thể xảy ra là, nếu như bạn hỏi họ,
14:31
"So why do you support this issue?"
276
871800
4016
"Vì sao bạn lại ủng hộ vấn đề này?"
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
"Vì sao bạn vẫn làm công việc này hoặc duy trì mối quan hệ này?"--
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
thứ có thể xảy ra khi bạn hỏi lý do là bạn thực sự tạo ra một thái độ
14:42
that wasn't there before you asked the question.
279
882520
2240
mà không hề tồn tại trước khi bạn hỏi điều đó.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
Và nó dĩ nhiên rất quan trọng với cuộc sống chuyên nghiệp bạn có,
14:48
or it could be.
281
888640
1216
hoặc có thể là như thế.
14:49
If, say, you design something and then you ask people,
282
889880
2536
Giống như bạn thiết kế cái gì đó và hỏi mọi người
14:52
"Why do you think this is good or bad?"
283
892440
2256
"Vì sao bạn nghĩ điều này tốt hoặc xấu?"
14:54
Or if you're a journalist asking a politician,
284
894720
3056
Hoặc nếu bạn là một nhà báo đặt câu hỏi cho một chính trị gia:
14:57
"So, why did you make this decision?"
285
897800
2376
"Tại sao ông lại có quyết định như thế này?"
15:00
Or if indeed you are a politician
286
900200
1936
Hay thậm chí nếu bạn là chính trị gia
15:02
and try to explain why a certain decision was made.
287
902160
2640
cố giải thích lý do một quyết định gì đó được thiết lập.
15:06
So this may all seem a bit disturbing.
288
906080
3576
Việc này sẽ có vẻ khó chịu,
15:09
But if you want to look at it from a positive direction,
289
909680
3496
nhưng nếu bạn muốn nhìn nhận nó theo một hướng tích cực,
15:13
it could be seen as showing,
290
913200
1736
nó lại có thể thành khoa trương.
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
Được rồi, có vẻ như chúng ta thực sự linh hoạt hơn mình nghĩ.
15:18
We can change our minds.
292
918360
1896
Chúng ta có thể thay đổi tâm trí mình.
15:20
Our attitudes are not set in stone.
293
920280
2456
Thái độ chúng ta không được kiên cố.
15:22
And we can also change the minds of others,
294
922760
3176
Và chúng ta cũng thay đổi được tâm trí của người khác,
15:25
if we can only get them to engage with the issue
295
925960
2376
chỉ khi chúng ta có thể gắn kết họ với chủ đề
15:28
and see it from the opposite view.
296
928360
1680
và quan sát nó từ quan điểm đối lập.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
Và trong đời tư của mình, khi bắt đầu nghiên cứu này --
15:35
So my partner and I, we've always had the rule
298
935360
2576
tôi và đồng nghiệp luôn luôn giữ quy tắc là
15:37
that you're allowed to take things back.
299
937960
2296
bạn được phép rút lại bất cứ điều gì.
15:40
Just because I said I liked something a year ago,
300
940280
2336
Chỉ vì tôi nói tôi thích điều gì đó một năm trước
15:42
doesn't mean I have to like it still.
301
942640
2040
không có nghĩa là tôi vẫn phải thích nó.
15:45
And getting rid of the need to stay consistent
302
945480
2816
Và thoát khỏi nhu cầu được ổn định
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
thực là một sự giải thoát khiến cho cuộc đời trở nên dễ sống hơn.
15:53
Anyway, so the conclusion must be:
304
953720
2360
Dù sao thì, kết luận phải là:
15:57
know that you don't know yourself.
305
957320
2496
hãy biết rằng bạn không hiểu hết bản thân mình,
15:59
Or at least not as well as you think you do.
306
959840
2320
hay ít ra là không rõ như mình nghĩ.
16:03
Thanks.
307
963480
1216
Xin cảm ơn.
16:04
(Applause)
308
964720
4640
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7