Rana el Kaliouby: This app knows how you feel — from the look on your face

138,524 views ・ 2015-06-15

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Zeeva Livshitz מבקר: Ido Dekkers
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
הרגשות שלנו משפיעים על כל היבט של חיינו,
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
מהבריאות שלנו, ואיך אנו לומדים, עושים עסקים ומקבלים החלטות,
00:20
big ones and small.
2
20149
1773
גדולות וקטנות.
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
הרגשות שלנו משפיעים גם על הדרך בה אנו מתחברים זה לזה.
00:27
We've evolved to live in a world like this,
4
27132
3976
התפתחנו לחיות בעולם כמו זה,
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
אך במקום זאת, אנו חיים את חיינו יותר ויותר כך -
00:35
this is the text message from my daughter last night --
6
35427
3134
זוהי הודעת הטקסט מהבת שלי אתמול בלילה --
00:38
in a world that's devoid of emotion.
7
38561
2740
בעולם נטול רגש.
00:41
So I'm on a mission to change that.
8
41301
1951
אז אני במשימה לשנות זאת.
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
אני רוצה להחזיר את הרגשות לחוויות הדיגיטליות שלנו.
00:48
I started on this path 15 years ago.
10
48223
3077
התחלתי בדרך זו לפני 15 שנים
00:51
I was a computer scientist in Egypt,
11
51300
2066
הייתי מדעית מחשב במצרים,
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
ובדיוק התקבלתי לתכנית דוקטורט באוניברסיטת קיימברידג'.
00:57
So I did something quite unusual
13
57871
2113
אז עשיתי משהו יוצא דופן
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
לאישה מוסלמית צעירה ונשואה טרייה:
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
עם תמיכה של בעלי שנאלץ להישאר במצרים,
01:08
I packed my bags and I moved to England.
16
68598
3018
ארזתי את חפציי ועברתי לאנגליה.
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
בקיימברידג', אלפי קילומטרים הרחק מהבית,
01:14
I realized I was spending more hours with my laptop
18
74844
3413
נוכחתי שאני מבזבזת יותר שעות עם המחשב הנישא שלי
01:18
than I did with any other human.
19
78257
2229
מאשר עם כל בן אדם אחר.
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
ועל אף האינטימיות, למחשב לא היה כל מושג איך אני מרגישה
01:25
It had no idea if I was happy,
21
85339
3211
לא היה לו מושג אם הייתי מאושרת
01:28
having a bad day, or stressed, confused,
22
88550
2988
היה לי יום גרוע, או לחוץ, מבולבל,
01:31
and so that got frustrating.
23
91538
2922
וכך זה נעשה מתסכל.
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
אפילו גרוע יותר, כשהתקשרתי עם משפחתי באינטרנט
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
הרגשתי שכל הרגשות שלי נעלמו במרחב הקיברנטי.
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
התגעגעתי הביתה, הייתי בודדה, ולמשך כמה ימים ממש בכיתי,
01:49
but all I had to communicate these emotions was this.
27
109858
4928
אבל כל מה שהיה לי כדי להעביר את הרגשות האלו היה זה.
01:54
(Laughter)
28
114786
2020
(צחוק)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
לטכנולוגיה של היום יש הרבה I.Q., אבל לא E.Q .;
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
המון אינטליגנציה קוגניטיבית, אבל אין אינטליגנציה רגשית.
02:04
So that got me thinking,
31
124956
2197
כך שזה גרם לי לחשוב,
02:07
what if our technology could sense our emotions?
32
127153
3624
מה אם הטכנולוגיה שלנו יכלה לחוש את הרגשות שלנו?
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
מה אם המכשירים שלנו יכלו לחוש איך הרגשנו והיו מגיבים בהתאם,
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
כמו באופן בו חבר אינטליגנטי רגשית היה מרגיש?
02:18
Those questions led me and my team
35
138666
3564
שאלות אלו הנחו אותי ואת הצוות שלי
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
ליצור טכנולוגיות שיכולות לקרוא את הרגשות שלנו, ולהגיב להם.
02:26
and our starting point was the human face.
37
146607
3090
ונקודת המוצא שלנו הייתה הפנים האנושיות.
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
אז הפנים האנושיות שלנו הן אחד מהערוצים החזקים ביותר
02:33
that we all use to communicate social and emotional states,
39
153750
4016
שכולנו משתמשים בהן כדי לתקשר מצבים חברתיים ורגשיים,
02:37
everything from enjoyment, surprise,
40
157766
3010
הכל מהנאה, הפתעה
02:40
empathy and curiosity.
41
160776
4203
אמפתיה וסקרנות.
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
במדע הרגשות, אנחנו קוראים לכל תנועת שרירי פנים יחידת פעולה.
02:49
So for example, action unit 12,
43
169907
2925
כך למשל, יחידת פעולה 12,
02:52
it's not a Hollywood blockbuster,
44
172832
2038
זה לא שובר קופות הוליוודי,
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
זו למעשה משיכה של פינת שפה, שמהווה את המרכיב העיקרי של חיוך.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
נסו את זה לכולם. בואו ונעלה כמה חיוכים.
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
דוגמה נוספת היא יחידת פעולה 4. היא כיווץ המצח.
03:03
It's when you draw your eyebrows together
48
183954
2238
זה כאשר אתם מושכים את הגבות שלכם יחד
03:06
and you create all these textures and wrinkles.
49
186192
2267
ואתם יוצרים את כל המרקמים והקמטים האלה.
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
אנחנו לא אוהבים אותם, אבל זו אינדיקציה חזקה של רגש שלילי.
03:12
So we have about 45 of these action units,
51
192754
2206
אז יש לנו כ -45 יחידות פעולה כאלו,
03:14
and they combine to express hundreds of emotions.
52
194960
3390
והן משתלבות להביע מאות רגשות.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
קשה ללמד מחשב לקרוא את הבעות הפנים האלו,
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
כי יחידות פעולה אלה, הן יכולות להיות מהירות, הן עדינות,
03:25
and they combine in many different ways.
55
205223
2554
והן משתלבות בהרבה אופנים.
03:27
So take, for example, the smile and the smirk.
56
207777
3738
אז קחו לדוגמה, חיוך רגיל וגיחוך.
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
הם נראים זהים, אבל משמעותם שונה לחלוטין.
03:35
(Laughter)
58
215268
1718
(צחוק)
03:36
So the smile is positive,
59
216986
3004
אז החיוך הוא חיובי,
03:39
a smirk is often negative.
60
219990
1270
הגיחוך הוא לעתים קרובות שלילי.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
לפעמים גיחוך יכול לגרום לכם להיות מפורסמים
03:45
But seriously, it's important for a computer to be able
62
225136
2824
אבל ברצינות, זה חשוב שמחשב יהיה מסוגל
03:47
to tell the difference between the two expressions.
63
227960
2855
להצביע על ההבדל בין שתי ההבעות.
03:50
So how do we do that?
64
230815
1812
אז איך אנחנו עושים את זה?
03:52
We give our algorithms
65
232627
1787
אנחנו נותנים לאלגוריתמים שלנו
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
עשרות אלפי דוגמאות של אנשים שאנחנו מכירים כמחייכים,
03:58
from different ethnicities, ages, genders,
67
238524
3065
ממוצאים אתניים, גילים, ומגדרים שונים,
04:01
and we do the same for smirks.
68
241589
2811
ואנחנו עושים את אותו הדבר עבור גיחוכים.
04:04
And then, using deep learning,
69
244400
1554
ולאחר מכן, באמצעות למידה עמוקה
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
האלגוריתם מחפש את כל המרקמים והקמטים האלו
04:08
and shape changes on our face,
71
248810
2580
וצורות שינוי על פנינו,
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
ובעצם לומד שלכל החיוכים יש מאפיינים משותפים,
04:14
all smirks have subtly different characteristics.
73
254592
3181
לכל הגיחוכים יש מאפיינים מעודנים שונים.
04:17
And the next time it sees a new face,
74
257773
2368
ובפעם הבאה שהוא רואה פנים חדשות,
04:20
it essentially learns that
75
260141
2299
הוא בעצם לומד
04:22
this face has the same characteristics of a smile,
76
262440
3033
שלפנים אלו יש אותם מאפיינים של חיוך,
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
והוא אומר, "אהה, אני מכיר את זה. זו הבעת חיוך. "
04:30
So the best way to demonstrate how this technology works
78
270381
2800
לכן הדרך הטובה ביותר להדגים איך הטכנולוגיה הזו עובדת
04:33
is to try a live demo,
79
273181
2136
היא לנסות תוכנית הדגמה חיה,
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
אז אני צריכה מתנדב, רצוי מישהו עם פנים.
04:39
(Laughter)
81
279230
2334
(צחוק)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
קלואי הולכת להיות המתנדבת שלנו היום
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
אז בחמש השנים האחרונות, עברנו מלהיות פרויקט מחקר ב- MIT
04:49
to a company,
84
289783
1156
לחברה,
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
שבה הקבוצה שלי עבדה ממש קשה כדי לגרום לטכנולוגיה הזו לעבוד,
04:54
as we like to say, in the wild.
86
294131
2409
כמו שאנחנו אוהבים לומר, בטבע.
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
וגם כיווצנו זאת כדי שליבת מנוע הרגש
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
עובדת על כל מכשיר נייד עם מצלמה, כמו האייפד הזה.
05:02
So let's give this a try.
89
302530
2786
אז בואו וננסה את זה.
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
כפי שתוכלו לראות, האלגוריתם בעצם מצא את פניה של קלואי,
05:10
so it's this white bounding box,
91
310680
1692
אז זוהי התיבה התוחמת הלבנה הזה,
05:12
and it's tracking the main feature points on her face,
92
312372
2571
והיא עוקבת אחר נקודות האפיון המרכזיים של פניה,
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
אז גבותיה, עיניה, פיה ואפה.
05:17
The question is, can it recognize her expression?
94
317799
2987
השאלה היא, האם זה יכול לזהות את הבעתה?
05:20
So we're going to test the machine.
95
320786
1671
אז אנחנו הולכים לבחון את המכונה
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
אז קודם כל, תני לי את פני הפוקר שלך. כן, מדהים. (צחוק)
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
ואז כשהיא מחייכת, זה חיוך אמיתי, זה נהדר.
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
אז אתם יכולים לראות את הפס הירוק עולה כשהיא מחייכת.
05:31
Now that was a big smile.
99
331756
1222
עכשיו זה היה חיוך גדול.
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
את יכולה לנסות לחייך חיוך עדין כדי לראות אם המחשב יכול לזהות?
05:36
It does recognize subtle smiles as well.
101
336021
2331
הוא מזהה גם חיוכים עדינים.
05:38
We've worked really hard to make that happen.
102
338352
2125
עבדנו ממש קשים כדי שזה יקרה.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
ולאחר מכן גבה מורמת, שמצביעה של הפתעה.
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
כיווץ מצח שמצביע על מבוכה.
05:47
Frown. Yes, perfect.
105
347688
4007
זעף. כן, מושלם.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
אז אלה הם כל יחידות הפעולה השונות. יש עוד מהן.
05:55
This is just a slimmed-down demo.
107
355188
2032
זו תכנית הדגמה מצומקת.
05:57
But we call each reading an emotion data point,
108
357220
3148
אבל אנחנו קוראים לכל קריאה נקודת נתוני רגש,
06:00
and then they can fire together to portray different emotions.
109
360368
2969
ואז הן יכולות "לירות" יחד כדי לתאר רגשות שונים.
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
אז בצד ימין של ההדגמה - נראה כאילו שאתם שמחים
06:07
So that's joy. Joy fires up.
111
367990
1454
אז זו שמחה. השמחה "יורה."
06:09
And then give me a disgust face.
112
369444
1927
ואז תני לי הבעת גועל
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
נסי להיזכר איך זה היה כשזאיין עזב בכיוון אחד.
06:15
(Laughter)
114
375643
1510
(צחוק)
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
כן, קמטי את האף שלך. מדהים.
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
והערכיות היא למעשה שלילית למדי, אז כנראה שאת מעריצה גדולה.
06:25
So valence is how positive or negative an experience is,
117
385226
2700
אז ערכיות היא המידה עד כמה החוויה היא חיובית או שלילית,
06:27
and engagement is how expressive she is as well.
118
387926
2786
וההתחייבות היא עד כמה היא בעלת הבעה גם כן.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
אז דמיינו אם לקלואי הייתה גישה לזרם רגש כזה בזמן אמת,
06:34
and she could share it with anybody she wanted to.
120
394126
2809
והיא הייתה יכולה לחלוק את זה עם כל מי שהיא רצתה.
06:36
Thank you.
121
396935
2923
תודה.
06:39
(Applause)
122
399858
4621
(מחיאות כפיים)
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
אז עד כה, צברנו 12 מיליארד נקודות נתוני רגש אלה.
06:51
It's the largest emotion database in the world.
124
411019
2611
זה מסד נתוני הרגש הגדול ביותר בעולם.
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
אספנו אותם מ-2.9 מיליון קטעי וידאו של פנים.
06:56
people who have agreed to share their emotions with us,
126
416593
2600
אנשים שהסכימו לחלוק את רגשותיהם איתנו,
06:59
and from 75 countries around the world.
127
419193
3205
ומ- 75 מדינות ברחבי העולם.
07:02
It's growing every day.
128
422398
1715
זה הולך וגדל מיום ליום.
07:04
It blows my mind away
129
424603
2067
זה מטריף אותי
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
שעכשיו אנחנו יכולים לכמת משהו כה אישי כמו הרגשות שלנו,
07:09
and we can do it at this scale.
131
429865
2235
ואנחנו יכולים לעשות את זה בקנה המידה הזה
07:12
So what have we learned to date?
132
432100
2177
אז מה למדנו עד כה?
07:15
Gender.
133
435057
2331
מגדר.
07:17
Our data confirms something that you might suspect.
134
437388
3646
הנתונים שלנו מאשרים משהו שאולי אתם מנחשים.
07:21
Women are more expressive than men.
135
441034
1857
נשים הן יותר בעלות הבעה מגברים.
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
לא רק שהן מחייכות יותר, החיוכים שלהם נמשכים יותר זמן,
07:25
and we can now really quantify what it is that men and women
137
445574
2904
ואנחנו יכולים עכשיו באמת לכמת מהו הדבר שגברים ונשים
07:28
respond to differently.
138
448478
2136
מגיבים לו באופן שונה.
07:30
Let's do culture: So in the United States,
139
450614
2290
בואו נפנה לתרבות: אז בארצות הברית,
07:32
women are 40 percent more expressive than men,
140
452904
3204
נשים הן ב-40 אחוזים יותר בעלות הבעה מגברים,
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
אך למרבה הפלא, איננו רואים כל הבדל בבריטניה בין גברים לנשים.
07:39
(Laughter)
142
459753
2506
(צחוק)
07:43
Age: People who are 50 years and older
143
463296
4027
גיל: אנשים שהם בני 50 ומעלה
07:47
are 25 percent more emotive than younger people.
144
467323
3436
הם ב-25% יותר אמוטיבים מאנשים צעירים.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
נשים בשנות ה -20 שלהן מחייכות הרבה יותר מגברים באותו גיל,
07:55
perhaps a necessity for dating.
146
475751
3839
אולי זה הכרחי להיכרויות.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
אבל אולי מה שהכי הפתיע אותנו בנתונים אלה
08:02
is that we happen to be expressive all the time,
148
482207
3203
זה שאנחנו הבעתיים כל הזמן
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
אפילו כאשר אנו יושבים לבד מול המכשירים שלנו,
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
וזה לא רק כאשר אנחנו צופים בקטעי וידאו על חתולים בפייסבוק.
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
אנחנו הבעתיים כאשר אנחנו שולחים דואר אלקטרוני, הודעות SMS, וקניות באינטרנט,
08:15
or even doing our taxes.
152
495227
2300
או אפילו משלמים את המסים שלנו.
08:17
Where is this data used today?
153
497527
2392
איפה משתמשים בנתונים אלה היום?
08:19
In understanding how we engage with media,
154
499919
2763
בהבנת האופן בו אנו עוסקים בתקשורת
08:22
so understanding virality and voting behavior;
155
502682
2484
אז הבנת הוויראליות והרגלי הצבעה;
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
וגם העצמה או טכנולוגיה שמאפשרת רגש,
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
ואני רוצה לשתף כמה דוגמאות שקרובות ללבי במיוחד.
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
חבישת משקפיים מאפשרי-רגש יכולים לעזור לאנשים
08:36
who are visually impaired read the faces of others,
159
516265
3228
לקויי ראייה לקרוא את פניהם של אחרים
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
וזה יכול לעזור לאנשים על הספקטרום האוטיסטי לפרש רגש,
08:43
something that they really struggle with.
161
523680
2778
משהו שהם ממש נאבקים איתו.
08:47
In education, imagine if your learning apps
162
527918
2859
בחינוך, דמיינו אם יישומי הלמידה שלכם
08:50
sense that you're confused and slow down,
163
530777
2810
חשים שאתם מבולבלים ואז מאיטים,
08:53
or that you're bored, so it's sped up,
164
533587
1857
או שאתם משועממים, אז הם מאיצים,
08:55
just like a great teacher would in a classroom.
165
535444
2969
כפי שמורה גדול היה נוהג בכיתה.
08:59
What if your wristwatch tracked your mood,
166
539043
2601
מה אם שעון היד שלכם היה עוקב אחר מצב הרוח שלכם,
09:01
or your car sensed that you're tired,
167
541644
2693
או שמכוניתכם הרגישה שאתם עייפים,
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
או אולי המקרר שלכם יודע שאתם לחוצים,
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
אז הוא ננעל אוטומטית כדי למנוע מכם בולמוס אכילה. (צחוק)
09:12
I would like that, yeah.
170
552951
2717
הייתי אוהבת את זה, כן.
09:15
What if, when I was in Cambridge,
171
555668
1927
מה אם, כשהייתי בקיימברידג ',
09:17
I had access to my real-time emotion stream,
172
557595
2313
הייתה לי גישה לזרם הרגש שלי בזמן אמת,
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
ויכולתי לחלוק את זה עם משפחתי בבית באופן מאוד טבעי,
09:23
just like I would've if we were all in the same room together?
174
563437
3971
בדיוק כפי שהייתי עושה לו היינו כולנו יחד באותו חדר?
09:27
I think five years down the line,
175
567408
3142
אני חושבת, שחמש שנים מהיום,
09:30
all our devices are going to have an emotion chip,
176
570550
2337
לכל המכשירים שלנו הולך להיות שבב רגש,
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
ולא נזכור איך זה היה כשלא יכולנו פשוט לזעוף על המכשיר שלנו
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
והמכשיר היה אומר, "הממ, לא אהבת את זה , נכון?"
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
האתגר הגדול ביותר שלנו הוא שיש כל כך הרבה יישומים של טכנולוגיה זו,
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
הצוות שלי ואני מבינים שאיננו יכולים לבנות את כולם בעצמנו,
09:47
so we've made this technology available so that other developers
181
587864
3496
אז עשינו טכנולוגיה זו זמינה כך שמפתחים אחרים
09:51
can get building and get creative.
182
591360
2114
יוכלו לבנות ולהיות יצירתיים.
09:53
We recognize that there are potential risks
183
593474
4086
אנו מודעים לכך שיש סיכונים פוטנציאליים
09:57
and potential for abuse,
184
597560
2067
ופוטנציאל לשימוש לרעה,
09:59
but personally, having spent many years doing this,
185
599627
2949
אבל באופן אישי, לאחר שביליתי שנים רבות בעשייה של זה,
10:02
I believe that the benefits to humanity
186
602576
2972
אני מאמינה שהיתרונות לאנושות,
10:05
from having emotionally intelligent technology
187
605548
2275
מהשגת טכנולוגיה אינטליגנטית רגשית
10:07
far outweigh the potential for misuse.
188
607823
3576
עולה בהרבה על הפוטנציאל לשימוש לרעה.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
ואני מזמינה את כולכם להיות חלק מהשיחה.
10:13
The more people who know about this technology,
190
613930
2554
ככל שיותר אנשים ידעו על טכנולוגיה זו,
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
יוכל להיות לכולנו קול שיאמר מה יהיה אופן השימוש.
10:21
So as more and more of our lives become digital,
192
621081
4574
כך כשיותר ויותר חלקים מחיינו נעשים דיגיטליים,
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
אנו לוחמים מלחמה אבודה בניסיון לרסן את השימוש במכשירים שלנו
10:29
in order to reclaim our emotions.
194
629153
2229
כדי להשיב לעצמנו את הרגשות שלנו.
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
אז מה שאני מנסה לעשות במקום זה הוא להביא רגשות לטכנולוגיה שלנו
10:36
and make our technologies more responsive.
196
636536
2229
ולהפוך את הטכנולוגיה שלנו ליותר מגיבה.
10:38
So I want those devices that have separated us
197
638765
2670
אז אני רוצה שהמכשירים האלה שהפרידו בינינו
10:41
to bring us back together.
198
641435
2462
ישיבו לנו את הביחד.
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
ועל ידי האנשת טכנולוגיה, יש לנו הזדמנות פז
10:48
to reimagine how we connect with machines,
200
648485
3297
לשוב ולדמיין כיצד אנו יוצרים קשר עם מכונות
10:51
and therefore, how we, as human beings,
201
651782
4481
ולכן, כיצד אנו, כבני אדם,
10:56
connect with one another.
202
656263
1904
מתחברים אחד עם השני.
10:58
Thank you.
203
658167
2160
תודה.
11:00
(Applause)
204
660327
3313
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7