Anne Scherer: Why we're more honest with machines than people | TED

88,306 views ・ 2021-07-29

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

00:00
Transcriber:
0
0
7000
Μετάφραση: Ιωάννα Κυρμανίδου Επιμέλεια: Thanasis Zantrimas
Πριν μερικά χρόνια, έκανα μπάρμπεκιου με την οικογένειά μου και τους φίλους μου.
Όπως συνήθως, μιλούσαμε για τον καιρό, το καλό φαγητό ή τηλεοπτικές σειρές.
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Τίποτα λοιπόν το ασυνήθιστο.
Ώσπου ένας παρευρισκόμενος ανέφερε χαλαρά
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
πως δεν έκανε σεξ με τη γυναίκα του εδώ και αρκετό καιρό.
00:21
So nothing out of the ordinary
3
21876
3080
00:24
until one attendee casually mentioned
4
24996
2920
Όπως φαντάζεστε, ακολούθησε μια αμήχανη σιωπή.
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
Μέχρι που ένα εξάχρονο αγόρι, που ήταν εκεί με τους γονείς του,
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
ξεφούρνισε ότι οι γονείς του κάνουν πολύ σεξ και ότι τους άκουγε συνέχεια.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
Και τότε, το μπάρμπεκιου συνεχίστηκε σαν να μην έγινε τίποτα.
00:42
blurted out that his parents had lots of sex
8
42796
3680
00:46
and he could hear them all the time.
9
46516
2280
Λοιπόν, όταν δεν κάνω μπάρμπεκιου, ερευνώ πώς αλληλεπιδρούν οι άνθρωποι
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
και πώς αυτή η αλληλεπίδρασή τους συνδέεται με την τεχνολογία.
00:55
Now, when I'm not having barbecues,
11
55516
2000
Οπότε, δεν ήταν διόλου παράξενο,
00:57
I am researching how people interact with each other
12
57556
3360
ύστερα από αυτήν τη μοναδική κοινωνική αλληλεπίδραση στο μπάρμπεκιου,
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
που έφυγα αναρωτώμενη γιατί εμείς, το κοινό,
01:05
so not all too surprisingly,
14
65356
2160
αγνοήσαμε αυτά που μοιράστηκε ο ενήλικας τόσο ανοιχτά μαζί μας εκείνο το βράδυ.
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
01:11
I was left wondering why we, the audience,
16
71916
3520
Οπότε, προς τι η σιωπή κι έπειτα το γέλιο στο σχόλιο του παιδιού;
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
Λοιπόν, και τα δύο παραβιάζουν έναν κοινωνικό κανόνα:
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
Ποτέ δεν μιλάμε για το σεξ, τα λεφτά ή την πολιτική στο δείπνο.
01:26
Well, both of them were breaking a social rule:
19
86356
3800
Υποθέτουμε πως ένας ενήλικας γνωρίζει και τηρεί τον κανόνα αυτόν.
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
Οπότε, όταν αυτές οι προσδοκίες χαλάνε,
τιμωρούμε κατάλληλα τον παραβάτη– στην περίπτωση μας με αδιαφορία.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
01:39
So when such expectations are broken,
22
99116
2840
Όταν, όμως, ένα παιδί παραβιάζει τον κανόνα,
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
το αποδίδουμε στην αφελή κατανόηση των κοινωνικών μας τρόπων
01:47
When a child, however, breaks such a rule,
24
107996
2840
και τουλάχιστον μέχρι κάποια ηλικία, δεν του βάζουμε τιμωρίες ανοιχτά.
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
Προφανώς, δεν υπάρχει επίσημο εγχειρίδιο για κοινωνικά αποδεκτές συμπεριφορές
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
ή και για κοινωνικά αποδεκτά θέματα για το δείπνο.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Βασικά, οι κοινωνικοί μας κανόνες είναι συνήθως άγραφοι κώδικες τρόπων
και αλλάζουν με τον καιρό όπως αλλάζουμε και μαθαίνουμε κι εμείς σαν κοινωνία.
02:08
or even socially accepted dinner topics.
28
128396
3000
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
Λιγότερο από έναν χρόνο πριν,
θεωρούνταν αγενές να μην κάνεις χειραψία όταν συστήνεσαι σε κάποιον.
02:16
and they change over time as we as a society change and learn.
30
136436
4800
Μερικούς μήνες μετά την παγκόσμια εξάπλωση του κορονοϊού,
02:22
Less than a year ago, for instance,
31
142316
2120
02:24
it was considered impolite not to shake hands
32
144436
3000
η χειραψία μπορεί να αποτελέσει προϊόν αποδοκιμασίας
02:27
when introducing yourself to someone.
33
147436
2840
κι ίσως ένα κομμάτι του παρελθόντος.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
Ο τρόπος που μαθαίνουμε τότε τους κοινωνικούς κανόνες
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
είναι κυρίως μέσω των κοινωνικών επιβραβεύσεων και των τιμωριών.
02:38
and maybe even a thing of the past.
36
158436
2400
Τώρα, ως κοινωνικά ζώα,
02:41
The way we learn these social rules then
37
161796
2440
στοχεύουμε στην κοινωνική αποδοχή
02:44
is mostly by social rewards and social punishments.
38
164236
4720
κι αποφεύγουμε την αποδοκιμασία των άλλων.
Οπότε, δρούμε με έναν κοινωνικά αποδεκτό τρόπο
02:48
Now, as social animals,
39
168996
2040
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
και παρουσιαζόμαστε στους άλλους με έναν κοινωνικά επιθυμητό τρόπο.
Θέλουμε να μας βλέπουν ως άτομα που είναι έξυπνα, επιτυχημένα
02:56
So we act in a way that is socially accepted
41
176356
3440
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
αθλητικά και ενεργητικά, δημιουργικά, εμπαθή και αν γίνεται όλα μαζί.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Μέσω των κοινωνικών δικτύων, η προσπάθειά μας για κοινωνική αποδοχή,
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
και μαζί μ′ αυτό η ανάγκη μας για αυτοπαρουσίαση και τελειότητα
03:17
Now, through social media, our strive for social approval,
45
197036
4680
έχει εκτοξευθεί.
Προφανώς, υπάρχει μια άλλη πλευρά σ′ αυτό.
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
Σε οποιαδήποτε κοινωνική αλληλεπίδραση, δεν ψάχνουμε μόνο την έγκριση των άλλων,
03:26
has skyrocketed.
47
206556
1480
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
αλλά φοβόμαστε συνεχώς και την αποδοκιμασία τους
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
όταν δεν ανταποκρινόμαστε στις προσδοκίες τους.
Σκεφτείτε απλά έναν ενήλικο με προβλήματα ακράτειας ή εθισμό στα ναρκωτικά.
03:37
but we also constantly fear other's disapproval
50
217796
3800
03:41
when we cannot live up to their expectations.
51
221636
2720
Αν αυτός ή αυτή έπρεπε να μιλήσει σε έναν υγειονομικό,
03:45
Just consider an adult with incontinence problems
52
225436
3280
τι θα περιμένατε να βρει;
03:48
or a drug addiction.
53
228756
1880
Ή αν ένας στρατιώτης επέστρεφε από τον πόλεμο
03:50
If he or she had to talk to a health care professional,
54
230676
4320
κι έπρεπε να μιλήσει για τους φόβους ή τα προβλήματα του,
03:55
what would you expect to find?
55
235036
1800
πιστεύετε ότι θα ανοίγονταν εύκολα;
03:57
Or if a soldier returned from combat
56
237796
2720
Μία ομάδα ερευνητών του Πανεπιστημίου της Καλιφόρνιας αυτό εξέτασε.
04:00
and had to talk about their fears or problems,
57
240556
3280
Κοίταξαν τα δεδομένα από τον αμερικανικό στρατό.
04:03
do you think they would open up easily?
58
243876
2000
Παραδοσιακά, οι στρατιώτες έπρεπε να δίνουν συνέντευξη
04:07
A team of USC researchers examined just that.
59
247396
3760
σε έναν γιατρό όταν επέστρεφαν από τη μάχη
04:11
So they looked at the data from the US Army.
60
251156
3200
για να ελέγξουν αν όλα είναι καλά.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Τώρα, περιέργως,
οι ερευνητές βρήκαν πως οι στρατιώτες δεν ανέφεραν σχεδόν καθόλου προβλήματα
04:17
by a human health care professional when returning from combat
62
257156
4040
μετά την επιστροφή τους.
04:21
to check if everything is OK.
63
261196
2640
Φυσικά πολλοί ήταν απολύτως καλά,
04:23
Now, interestingly,
64
263876
1280
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
αλλά οι ερευνητές υποπτεύθηκαν
ότι πολλοί στρατιώτες δεν τολμούσαν να μοιραστούν ανοιχτά τα προβλήματα τους.
04:28
after their returns.
66
268876
2160
04:31
Surely many of them were truly fine,
67
271076
2840
04:33
but the researchers also suspected
68
273956
2560
Στην τελική, οι στρατιώτες εκπαιδεύονται να είναι δυνατά και γενναία άτομα
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
που μαθαίνουν να μη δείχνουν καμία αδυναμία.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
Οπότε, το να παραδεχτούν ανοιχτά ότι έχουν προβλήματα υγείας,
ότι δεν κοιμούνται ή ότι βλέπουν εφιάλτες,
04:47
that learn not to show any weaknesses.
71
287156
2400
δεν είναι κάτι εύκολο για τους στρατιώτες.
04:50
So openly admitting to have health problems,
72
290276
3760
Το ερώτημα που τίθεται τελικά είναι
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
πώς μπορούμε να βοηθήσουμε τα άτομα να ανοίγονται πιο εύκολα
04:57
is not something easy to do for soldiers.
74
297396
2840
και να ανησυχούν λιγότερο για την κριτική των άλλων;
05:00
The question then ultimately becomes
75
300236
2800
Θυμηθείτε λοιπόν αυτό που είπα νωρίτερα.
05:03
how can we help individuals open up more easily
76
303076
3800
Προσδοκούμε την κοινωνική αξιολόγηση σε οποιαδήποτε κοινωνική αλληλεπίδραση.
05:06
and worry less about the judgment of others?
77
306916
2640
05:11
Well, remember what I said earlier.
78
311356
2640
Τι θα λέγατε να αφαιρέσουμε το «κοινωνικό» από την αλληλεπίδραση;
05:14
We expect social evaluation in any social interaction.
79
314036
5720
Αυτό ακριβώς έκανε η ομάδα στην Αμερική.
05:19
So how about we remove the social from the interaction?
80
319796
3880
Για την ακρίβεια, ανέπτυξαν έναν εικονικό συνεντευξιαστή, τον SimSensei.
O SimSensei είναι ένα ψηφιακό άβαταρ που έχει ανθρώπινη εμφάνιση
05:24
This is exactly what the team in the US did.
81
324556
3120
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
και αλληλεπιδρά με τους πελάτες μέσω φυσικών συζητήσεων.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
Τώρα, επιστρέφοντας από τη μάχη,
οι στρατιώτες έδιναν συνέντευξη στο ψηφιακό άβαταρ
05:37
and can interact with clients through natural conversations.
84
337516
4200
αντί για τον επαγγελματία άνθρωπο.
05:41
Now, when returning from combat,
85
341756
2120
Και τι συνέβη; Λοιπόν, μόλις συστήθηκε ο SimSensei,
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
οι στρατιώτες δήλωναν περισσότερα προβλήματα υγείας,
05:47
instead of that human health care professional.
87
347316
2320
όπως το να βλέπουν εφιάλτες και να έχουν πρόβλημα ύπνου.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
Οι μηχανές μπορούν να αφαιρέσουν το κοινωνικό από την εξίσωση
05:55
soldiers reported more health problems,
89
355196
3080
05:58
like having nightmares or trouble sleeping.
90
358276
2760
και να ανοιχτούν οι άνθρωποι πιο εύκολα.
06:02
So machines can help remove the social from the equation
91
362836
4280
Αλλά προσοχή, δεν δημιουργούνται όλες οι μηχανές ίσες.
Λαμβάνοντας υπόψη την τεράστια εξέλιξη των τεχνολογιών όπως τα γραφικά υπολογιστή
06:07
and help people open up more easily.
92
367116
2440
06:10
But careful, not all machines are created equal.
93
370836
3720
ή την επεξεργασία φυσικής γλώσσας,
οι μηχανές γίνονται όλο και πιο ανθρώπινες.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
Τελικά, προκύπτει το εξής ερώτημα,
06:19
or natural language processing,
95
379076
2200
ποιους κανόνες εφαρμόζουμε σ′ αυτές τις αλληλεπιδράσεις;
06:21
machines have become increasingly humanlike.
96
381276
3760
Εφαρμόζουμε ακόμη κοινωνικούς κανόνες όταν αλληλεπιδρούμε με ανθρώπινες μηχανές;
06:25
The question then ultimately becomes,
97
385076
2600
06:27
which rules do we apply in these interactions?
98
387716
3200
Αρχίζουμε να ανησυχούμε πάλι για τον κοινωνικό σχολιασμό;
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
Αυτό ακριβώς εξετάζω στην έρευνα μου.
Με τους συνεργάτες μου, έχουμε εφεύρει μια σειρά chatbot.
06:39
So do we start to worry about social judgment again?
100
399036
3080
Αυτά είναι προγραμματισμένα να μιμούνται συζητήσεις σε μορφή κειμένου
06:43
This is exactly what I examine in my research.
101
403156
3600
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
και σχεδιάστηκαν να είναι είτε περισσότερο κοινωνικά και ανθρώπινα
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
είτε πιο πολύ λειτουργικά και μηχανικά.
Οπότε, για παράδειγμα,
06:56
and they were designed to be either very social and humanlike
104
416876
4360
τα ανθρώπινα μας μποτ χρησιμοποιούν τις λεγόμενες δυσχέρειες ταχύτητας
07:01
or very functional and machine-like.
105
421236
2720
και κοινωνικά γλωσσικά σήματα,
07:03
So, for instance,
106
423996
2040
όπως τα «ωχ»,«αχα», «χμ» που μας αρέσει να χρησιμοποιούμε στις συζητήσεις μας
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
07:10
and social language cues,
108
430436
1600
για να δηλώσουμε την παρουσία μας στους συνομιλητές μας.
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
Αντίθετα, τα μποτ που είναι πιο μηχανικά
δεν έχουν τέτοια γλωσσικά σήματα και απλώς συζητούσαν.
07:19
to signal our presence to conversation partners.
110
439116
4240
Αφού μας ενδιέφερε να δούμε πόσο θα ανοίγονταν οι άνθρωποι
07:23
In contrast, our machine-like bots
111
443356
2760
σ′ αυτούς τους διαφορετικούς διαλόγους,
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
ρωτάμε τους συμμετέχοντες μερικές ερωτήσεις,
07:30
Since we were interested in how much people would open up
113
450396
2800
οι οποίες γίνονται σταδιακά όλο και πιο προσωπικές
07:33
in these different conversations,
114
453196
2440
μέχρι που θα ζητούσαμε από τους συμμετέχοντες
07:35
we ask participants a number of questions,
115
455676
2920
να μοιραστούν πιθανόν πολύ ευαίσθητες προσωπικές πληροφορίες.
07:38
which gradually grew more and more personal,
116
458636
3480
Λαμβάνοντας υπόψη τα ευρήματα παλαιότερων ερευνών,
07:42
up to the point where we would ask participants
117
462116
2520
07:44
to share possibly very delicate information about themselves.
118
464676
4160
όπως εκείνο από τον αμερικανικό στρατό στο παρελθόν,
περιμέναμε πως οι άνθρωποι θα εφάρμοζαν περισσότερους κοινωνικούς κανόνες
07:49
Now, considering the findings from prior research,
119
469756
2720
στις αλληλεπιδράσεις τους μ′ αυτά τα ανθρώπινα μποτ
07:52
such as the one from the US Army before,
120
472516
3320
και θα φέρονταν ανάλογα.
07:55
we expected that people would apply more social rules
121
475876
4240
Τι βρήκαμε;
Λοιπόν, ακριβώς αυτό.
08:00
in their interactions with these humanlike bots
122
480116
2920
Οι συμμετέχοντες που έρχονταν σε επαφή με τα ανθρώπινα μποτ
08:03
and act accordingly.
123
483076
1640
08:05
So what did we find?
124
485596
1680
ανησυχούσαν περισσότερο για την κοινωνική κριτική
08:08
Well, exactly that.
125
488556
1600
κι ως αποτέλεσμα αυτής της κοινωνικής ανησυχίας
08:10
So participants interacting with our humanlike bots
126
490156
3880
παρείχαν περισσότερες κοινωνικά επιθυμητές απαντήσεις.
08:14
were more concerned about social evaluation
127
494076
3640
Θα σας δώσω ένα παράδειγμα.
08:17
and as a result of this social apprehension,
128
497756
2480
Μία από τις πιο ευαίσθητες ερωτήσεις που κάναμε στους συμμετέχοντες
08:20
they also gave more socially desirable responses.
129
500236
5080
αφορούσε τον αριθμό των προηγούμενων ερωτικών τους συντρόφων.
08:25
Let me give you an example.
130
505316
1960
Στην επαφή με τα ανθρώπινα μας μποτ,
08:27
One of the most delicate questions that we asked participants
131
507276
3680
οι άντρες δήλωναν αρκετά περισσότερους ερωτικούς συντρόφους,
08:30
was the number of prior sex partners they had had.
132
510996
3320
και οι γυναίκες αρκετά λιγότερους
08:35
When interacting with our humanlike bot,
133
515276
3160
08:38
men reported to have significantly more prior sex partners
134
518436
4920
από εκείνους που αλληλεπιδρούσαν με τα μηχανικά μας bot.
08:43
and women reported to have significantly less
135
523356
3360
Τι μας λέει αυτό;
Ότι οι άνδρες θέλουν να φαίνονται καλοί με το να έχουν περισσότερους συντρόφους,
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
κι οι γυναίκες λιγότερους.
08:52
So what does this all tell us?
137
532036
1920
Προφανώς, αυτό λέει ήδη πολλά
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
για το τι θεωρούν τα διαφορετικά φύλα κοινωνικά επιθυμητό
08:58
and women by having less.
139
538716
1640
και πώς οι κοινωνικές μας προσδοκίες διαφέρουν ανάμεσα στα φύλα.
09:01
Clearly, this already says a lot
140
541116
1760
09:02
about what the different sexes consider socially desirable
141
542916
4080
Αλλά αυτό ανοίγει ένα καινούργιο θέμα
09:07
and how our expectations in society still differ across genders.
142
547036
5680
που θα αφήσω να συζητήσουν άλλοι ειδικοί.
Δεύτερον, και ίσως το πιο σημαντικό, από την ψυχολογία του καταναλωτισμού.
09:13
But this opens up a whole new topic
143
553676
2520
09:16
that I will better leave for other experts to discuss.
144
556196
2960
Οι άνθρωποι ανοίγονται πιο εύκολα όταν έρχονται σε επαφή με μηχανές
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
που είναι ακριβώς μόνο αυτό: μηχανές.
09:26
People open up more easily when they interact with machines
146
566956
4320
Σήμερα, πολύς ιδρώτας, δάκρυα και λεφτά
ρίχνονται στη δημιουργία μηχανών που είναι πανομοιότυπες μ′ εμάς.
09:31
that are apparently just that -- machines.
147
571276
3560
09:34
Today, a lot of sweat, money and tears
148
574876
3000
Αυτή η έρευνα μπορεί να δείξει
πως το να αφήνεις ενίοτε τις μηχανές να είναι απλώς μηχανές είναι καλό.
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
09:43
Now, this research can show
150
583156
1680
Το οποίο με οδηγεί στο τρίτο μου θέμα.
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
Αυτές οι αλληλεπιδράσεις με μηχανές έχουν κατακριθεί ιδιαίτερα κατά καιρούς.
Οπότε, ίσως να έχετε ακούσει ότι η Siri, η Alexa και άλλες
09:51
Which brings me to my third point.
152
591716
1680
κάνουν τα παιδιά σας αγενή ή ανάγωγα.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Ευελπιστώ αυτή η έρευνα να σας δείξει
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
ένα σπουδαίο θετικό αυτών των αλληλεπιδράσεων με μηχανές.
10:01
make your kids rude or impolite.
155
601796
2400
Στην εποχή των κοινωνικών δικτύων και στο συνεχές κυνήγι του επόμενο «like»
10:05
Hopefully, this research can show you
156
605356
1880
10:07
a great upside of these machine interactions.
157
607236
3040
οι μηχανές μπορούν να μας δώσουν ενήλικες–
να μας βοηθήσουν να ξαναβρούμε το παιδί μέσα μας
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
και να δώσουν στη συνεχή μας ανάγκη για αυτοπαρουσίαση και τελειότητα
10:16
machines can give us grownups --
159
616196
2920
ένα διάλειμμα.
10:19
help us find that inner child again
160
619116
2760
Για μια φορά, δεν χρειάζεται να ανησυχούμε
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
αν ο αριθμός των προηγούμενων ερωτικών συντρόφων είναι μεγάλος ή μικρός
10:26
a time-out.
162
626236
1800
κι αντ′ αυτού είναι μια χαρά να είμαστε απλώς ο εαυτός μας.
10:28
For once, we do not need to worry
163
628076
2040
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
Εν τέλει, πιστεύω πως αυτές οι μηχανές μπορούν να μας υπενθυμίσουν
10:34
and instead it is OK to simply be who we are.
165
634676
4520
ένα βασικό στοιχείο που κάνει κάποιον καλό συνομιλητή:
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
το να μην φέρεται επικριτικά.
Την επόμενη φορά που μπορεί να συναντήσετε
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
μια ιδιαίτερη κοινωνική κατάσταση όπως τη δική μου στο μπάρμπεκιου
10:49
being nonjudgmental.
168
649876
2160
προσπαθήστε να μην είστε επικριτικοί όταν κάποιος άλλος μοιράζεται ανοιχτά
10:52
so the next time you might encounter
169
652076
2160
τις σκέψεις, τα συναισθήματα και τα προβλήματα του μαζί σας.
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
Ήδη πολλές μηχανές το κάνουν, κι ίσως θα έπρεπε να το κάνουμε κι εμείς.
10:58
try to be less judgmental
171
658116
1800
10:59
when another person openly shares
172
659956
1960
11:01
their thoughts, feelings and problems with you.
173
661956
3080
Σας ευχαριστώ πολύ.
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
11:09
Thank you very much.
175
669876
1240
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7