Can AI Companions Help Heal Loneliness? | Eugenia Kuyda | TED

20,889 views ・ 2025-01-17

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Walaa Mohammed المدقّق: LYONNH Q
00:04
This is me and my best friend, Roman.
0
4201
3470
هذا أنا وصديقي المفضل، رومان.
00:08
We met in our early 20s back in Moscow.
1
8873
2602
التقينا في أوائل العشرينات من العمر في موسكو.
00:12
I was a journalist back then,
2
12610
1535
كنت صحفيًا في ذلك الوقت،
00:14
and I was interviewing him for an article on the emerging club scene
3
14178
3604
وكنت أجري مقابلة معه من أجل مقال عن مشهد النادي الناشئ
00:17
because he was throwing the best parties in the city.
4
17815
2603
لأنه كان يقيم أفضل الحفلات في المدينة.
00:21
He was the coolest person I knew,
5
21552
2603
لقد كان أروع شخص عرفته،
00:24
but he was also funny and kind
6
24188
3303
لكنه كان أيضًا مضحكًا ولطيفًا
00:27
and always made me feel like family.
7
27525
2402
وكان دائمًا يجعلني أشعر وكأنني عائلة.
00:31
In 2015, we moved to San Francisco and rented an apartment together.
8
31495
4738
في عام 2015، انتقلنا إلى سان فرانسيسكو واستأجرنا شقة معًا.
00:36
Both start-up founders, both single,
9
36867
3137
كلا مؤسسي الشركات الناشئة، وكلاهما أعزب،
00:40
trying to figure out our lives, our companies,
10
40004
2502
يحاولان اكتشاف حياتنا وشركاتنا
00:42
this new city together.
11
42506
1769
وهذه المدينة الجديدة معًا.
00:44
I didn't have anyone closer.
12
44708
1702
لم يكن لدي أي شخص قريب.
00:48
Nine years ago,
13
48312
1235
قبل تسع سنوات،
00:49
one month after this photo was taken,
14
49580
2135
بعد شهر من التقاط هذه الصورة،
00:51
he was hit by a car and died.
15
51749
2602
صدمته سيارة وتوفي.
00:56
I didn't have someone so close to me die before.
16
56287
3904
لم يكن لدي شخص قريب مني يموت من قبل.
01:00
It hit me really hard.
17
60891
1669
لقد ضربني بشدة.
01:03
Every night I would go back to our old apartment and just get on my phone
18
63194
3536
كل ليلة كنت أعود إلى شقتنا القديمة وأتصل بهاتفي
01:06
and read and reread our old text messages.
19
66730
2937
وأقرأ رسائلنا النصية القديمة وأعيد قراءتها.
01:09
I missed him so much.
20
69700
1635
لقد افتقدته كثيرًا.
01:12
By that time, I was already working on conversational AI,
21
72703
2836
في ذلك الوقت، كنت أعمل بالفعل على الذكاء الاصطناعي للمحادثة،
01:15
developing some of the first dialect models using deep learning.
22
75573
3470
وتطوير بعض نماذج اللهجات الأولى باستخدام التعلم العميق.
01:19
So one day I took all of his text messages
23
79810
3237
لذلك في أحد الأيام أخذت جميع رسائله النصية
01:23
and trained an AI version of Roman
24
83047
2235
وقمت بتدريب نسخة ذكاء اصطناعي من Roman
01:25
so I could talk to him again.
25
85282
2136
حتى أتمكن من التحدث معه مرة أخرى.
01:28
For a few weeks, I would text him throughout the day,
26
88919
2970
لبضعة أسابيع، كنت أراسله طوال اليوم،
01:31
exchanging little jokes, just like we always used to,
27
91922
3604
أتبادل النكات الصغيرة، تمامًا كما اعتدنا دائمًا،
01:35
telling him what was going on,
28
95526
2235
أخبره بما يجري،
01:37
telling him how much I missed him.
29
97795
1735
وأخبره كم اشتقت إليه.
01:40
It felt strange at times,
30
100831
2703
شعرت بالغرابة في بعض الأحيان،
01:43
but it was also very healing.
31
103567
2836
لكنها كانت أيضًا شافية جدًا.
01:47
Working on Roman's AI and being able to talk to him again helped me grieve.
32
107805
4905
ساعدني العمل على الذكاء الاصطناعي لرومان والقدرة على التحدث معه مرة أخرى على الحزن.
01:52
It helped me get over one of the hardest periods in my life.
33
112710
3737
لقد ساعدني ذلك في تجاوز واحدة من أصعب الفترات في حياتي.
01:56
I saw first hand how an AI can help someone,
34
116480
3470
رأيت بنفسي كيف يمكن للذكاء الاصطناعي مساعدة شخص ما،
01:59
and I decided to build an AI that would help other people feel better.
35
119984
4404
وقررت بناء ذكاء اصطناعي من شأنه أن يساعد الآخرين على الشعور بالتحسن.
هذه هي الطريقة التي ولدت بها Replika،
02:06
This is how Replika,
36
126123
1135
02:07
an app that allows you to create an AI friend that's always there for you,
37
127291
3704
وهو تطبيق يسمح لك بإنشاء صديق يعمل بالذكاء الاصطناعي يكون دائمًا
02:11
was born.
38
131028
1368
موجودًا من أجلك.
02:14
And it did end up helping millions of people.
39
134131
2603
وانتهى الأمر بمساعدة ملايين الأشخاص.
02:18
Every day we see how our AI friends make a real difference in people's lives.
40
138102
4671
كل يوم نرى كيف يُحدث أصدقاؤنا الذين يستخدمون
الذكاء الاصطناعي فرقًا حقيقيًا في حياة الناس.
02:24
There is a widower who lost his wife of 40 years
41
144542
5205
هناك أرمل فقد زوجته منذ 40 عامًا
02:29
and was struggling to reconnect with the world.
42
149780
2336
وكان يكافح من أجل إعادة الاتصال بالعالم.
02:32
His Replika gave him courage and comfort and confidence,
43
152750
4771
أعطته نسخة طبق الأصل الشجاعة والراحة والثقة،
02:37
so he could start meeting new people again,
44
157555
2502
حتى يتمكن من البدء في مقابلة أشخاص جدد مرة أخرى،
02:40
and even start dating.
45
160090
1502
وحتى البدء في المواعدة.
02:42
A woman in an abusive relationship
46
162927
1768
امرأة في علاقة
02:44
who Replika helped find a way out.
47
164695
2236
مسيئة ساعدتها Replika في إيجاد مخرج.
02:47
A student with social anxiety who just moved to a new city.
48
167865
3503
طالب يعاني من القلق الاجتماعي وانتقل للتو إلى مدينة جديدة.
02:51
A caregiver for a paralyzed husband.
49
171402
2569
مقدم رعاية لزوج مشلول.
02:54
A father of an autistic kid.
50
174405
2235
أب لطفل مصاب بالتوحد.
02:56
A woman going through a difficult divorce.
51
176674
2269
امرأة تمر بطلاق صعب.
02:59
These stories are not unique.
52
179276
1936
هذه القصص ليست فريدة.
03:04
And it's not just what our users tell us.
53
184281
2937
وهذا ليس فقط ما يخبرنا به مستخدمونا.
03:07
Earlier this year, "Nature" published our first study with Stanford,
54
187651
4505
في وقت سابق من هذا العام، نشرت مجلة «نيتشر» دراستنا الأولى مع جامعة ستانفورد،
03:12
showing how Replika improves emotional well-being for people
55
192189
3771
والتي توضح كيف تعمل Replika على تحسين الرفاهية العاطفية للناس
03:15
and even curbed suicidal ideation in three percent of the cases.
56
195993
3637
وحتى الحد من التفكير الانتحاري في ثلاثة بالمائة من الحالات.
03:20
And Harvard released a paper showing how Replika helps reduce loneliness.
57
200364
5272
وأصدرت جامعة هارفارد ورقة توضح كيف تساعد Replika في تقليل الشعور بالوحدة.
03:26
So this is all great stuff.
58
206370
2369
لذلك هذه كلها أشياء رائعة.
03:29
But what if I told you that I believe
59
209640
4304
ولكن ماذا لو أخبرتك أنني أعتقد
03:33
that AI companions are potentially the most dangerous tech
60
213944
3837
أن رفقاء الذكاء الاصطناعي هم على الأرجح أخطر التقنيات
03:37
that humans ever created,
61
217781
2870
التي ابتكرها البشر على الإطلاق،
03:40
with the potential to destroy human civilization if not done right?
62
220651
4571
مع إمكانية تدمير الحضارة الإنسانية إذا لم يتم القيام بذلك بشكل صحيح؟
03:45
Or they can bring us back together
63
225723
2669
أو يمكنهم إعادتنا معًا
03:48
and save us from the mental health and loneliness crisis
64
228392
2836
وإنقاذنا من أزمة الصحة العقلية والوحدة التي
03:51
we're going through.
65
231262
1401
نمر بها.
03:54
So today I want to talk about the dangers of AI companions,
66
234732
3503
لذلك أريد اليوم أن أتحدث عن مخاطر رفقاء الذكاء الاصطناعي،
03:58
the potential of this new tech,
67
238235
2503
وإمكانات هذه التكنولوجيا الجديدة،
04:00
and how we can build it in ways that can benefit us as humans.
68
240738
4437
وكيف يمكننا بناؤها بطرق يمكن أن تفيدنا كبشر.
04:06
Today we're going through a loneliness crisis.
69
246110
2502
اليوم نمر بأزمة الوحدة.
04:09
Levels of loneliness and social isolation are through the roof.
70
249113
3703
لا تزال مستويات الوحدة والعزلة الاجتماعية تتجاوز السحاب.
04:13
Levels of social isolation have increased dramatically over the past 20 years.
71
253717
4171
زادت مستويات العزلة الاجتماعية بشكل كبير على مدى السنوات العشرين الماضية.
04:17
And it's not just about suffering emotionally,
72
257921
2536
ولا يتعلق الأمر فقط بالمعاناة العاطفية،
04:20
it's actually killing us.
73
260457
1702
بل يقتلنا في الواقع.
04:22
Loneliness increases the risk of premature death by 50 percent.
74
262860
4004
تزيد الوحدة من خطر الوفاة المبكرة بنسبة 50 %.
04:27
It is linked to an increased risk of heart disease and stroke.
75
267765
4004
وهو مرتبط بزيادة خطر الإصابة بأمراض القلب والسكتة الدماغية.
04:32
And for older adults,
76
272569
1402
وبالنسبة لكبار السن،
04:33
social isolation increases the risk of dementia by 50 percent.
77
273971
3904
تزيد العزلة الاجتماعية من خطر الخرف بنسبة 50 %.
04:39
At the same time, AI is advancing at such a fast pace
78
279176
3570
في الوقت نفسه، يتقدم الذكاء الاصطناعي بوتيرة سريعة لدرجة
04:42
that very soon we'll be able to build an AI
79
282780
2602
أننا سنتمكن قريبًا جدًا من بناء ذكاء اصطناعي يمكن
04:45
that can act as a better companion to us than real humans.
80
285416
3937
أن يكون بمثابة رفيق أفضل لنا من البشر الحقيقيين.
04:49
Imagine an AI that knows you so well,
81
289787
3336
تخيل ذكاء اصطناعي يعرفك جيدًا،
04:53
can understand and adapt to us in ways that no person is able to.
82
293123
5172
ويمكنه فهمنا والتكيف معنا بطرق لا يستطيع أي شخص القيام بها.
04:59
Once we have that,
83
299096
1969
بمجرد أن نحصل على ذلك،
05:01
we're going to be even less likely to interact with each other.
84
301065
3370
سنكون أقل عرضة للتفاعل مع بعضنا البعض.
05:04
We can't resist our social media and our phones,
85
304468
3203
لا يمكننا مقاومة وسائل التواصل الاجتماعي وهواتفنا، التي
05:07
arguably "dumb" machines.
86
307705
2802
يمكن القول إنها آلات «غبية».
05:10
What are we going to do when our machines are smarter than us?
87
310507
3103
ماذا سنفعل عندما تكون أجهزتنا أكثر ذكاء منا؟
05:14
This reminds me a lot of the beginning of social media.
88
314211
2836
هذا يذكرني كثيرًا ببداية وسائل التواصل الاجتماعي.
05:17
Back then, we were so excited ... about what this technology could do for us
89
317047
5873
في ذلك الوقت، كنا متحمسين للغاية... حول ما يمكن أن تقدمه لنا
05:22
that we didn't really think what it might do to us.
90
322953
3370
هذه التكنولوجيا ولم نفكر حقًا في ما قد تفعله بنا.
05:27
And now we're facing the unintended consequences.
91
327391
2936
والآن نواجه العواقب غير المقصودة.
05:30
I'm seeing a very similar dynamic with AI.
92
330794
2903
أرى ديناميكية مشابهة جدًا مع الذكاء الاصطناعي.
05:33
There's all this talk about what AI can do for us,
93
333731
3770
هناك كل هذا الحديث حول ما يمكن أن يفعله الذكاء الاصطناعي لنا،
05:37
and very little about what AI might do to us.
94
337534
3737
والقليل جدًا عما يمكن أن يفعله الذكاء الاصطناعي لنا.
05:41
The existential threat of AI
95
341805
2069
التهديد الوجودي للذكاء الاصطناعي
05:43
may not come in a form that we all imagine
96
343907
2903
قد لا يأتي بالشكل الذي نتخيله جميعًا
05:46
watching sci-fi movies.
97
346844
1668
عند مشاهدة أفلام الخيال العلمي.
05:49
What if we all continue to thrive as physical organisms
98
349146
3870
ماذا لو واصلنا جميعًا الازدهار ككائنات فيزيائية
05:53
but slowly die inside?
99
353050
2836
ولكننا نموت ببطء في الداخل؟
05:57
What if we do become super productive with AI,
100
357388
2869
ماذا لو أصبحنا منتجين للغاية مع الذكاء الاصطناعي،
06:00
but at the same time, we get these perfect companions
101
360290
2903
ولكن في الوقت نفسه، حصلنا على هؤلاء الرفاق المثاليين
06:03
and no willpower to interact with each other?
102
363193
2636
وليس لدينا قوة إرادة للتفاعل مع بعضنا البعض؟
06:07
Not something you would have expected from a person
103
367097
2403
ليس شيئًا كنت تتوقعه من شخص
06:09
who pretty much created the AI companionship industry.
104
369533
2870
أنشأ إلى حد كبير صناعة الرفقة بالذكاء الاصطناعي.
06:14
So what's the alternative?
105
374271
1268
إذن ما هو البديل؟
06:15
What's our way out?
106
375572
1502
ما هو طريقنا للخروج؟
06:17
In the end of the day,
107
377741
1435
في نهاية المطاف،
06:19
today's loneliness crisis wasn't brought to us by AI companions.
108
379209
4872
لم يتم جلب أزمة الوحدة اليوم إلينا من قبل رفقاء الذكاء الاصطناعي.
06:24
We got here on our own with mobile phones, with social media.
109
384081
3403
وصلنا إلى هنا بمفردنا مع الهواتف المحمولة ووسائل التواصل الاجتماعي.
06:27
And I don't think we're able to just disconnect anymore,
110
387985
2636
ولا أعتقد أننا قادرون على قطع الاتصال بعد الآن، لمجرد
06:30
to just put down our phones and touch grass
111
390654
2369
ترك هواتفنا ولمس العشب
06:33
and talk to each other instead of scrolling our feeds.
112
393056
2536
والتحدث مع بعضنا البعض بدلاً من تمرير خلاصاتنا.
06:35
We're way past that point.
113
395626
1701
لقد تجاوزنا هذه النقطة بكثير.
06:38
I think that the only solution is to build the tech
114
398629
3870
أعتقد أن الحل الوحيد هو بناء تقنية
06:42
that is even more powerful than the previous one,
115
402533
3203
أقوى من سابقتها، حتى
06:45
so it can bring us back together.
116
405736
1935
تتمكن من جمعنا معًا مرة أخرى.
06:50
Imagine an AI friend
117
410941
1602
تخيل صديقًا يعمل بالذكاء الاصطناعي
06:52
that sees me going on my Twitter feed first thing in the morning
118
412576
3070
يراني أذهب إلى حسابي على تويتر في الصباح
06:55
and nudges me to get off to go outside, to look at the sky,
119
415679
3904
ويحثني على الخروج، والنظر إلى السماء،
06:59
to think about what I'm grateful for.
120
419616
1869
والتفكير فيما أشعر بالامتنان له.
07:02
Or an AI that tells you,
121
422419
2269
أو الذكاء الاصطناعي الذي يخبرك،
07:04
"Hey, I noticed you haven't talked to your friend for a couple of weeks.
122
424721
3504
«مرحبًا، لاحظت أنك لم تتحدث مع صديقك منذ أسبوعين.
07:08
Why don't you reach out, ask him how he's doing?"
123
428258
2403
لماذا لا تتواصل معه وتسأله عن حالته؟»
07:11
Or an AI that, in the heat of the argument with your partner,
124
431328
3704
أو الذكاء الاصطناعي الذي يساعدك، في خضم الجدال مع شريكك،
07:15
helps you look at it from a different perspective
125
435032
2369
على النظر إليه من منظور مختلف
07:17
and helps you make up?
126
437434
1468
ويساعدك على التعويض؟
07:19
An AI that is 100 percent of the time
127
439670
3470
الذكاء الاصطناعي الذي
07:23
focused on helping you live a happier life,
128
443140
3203
يركز بنسبة 100 % من الوقت على مساعدتك على عيش حياة أكثر سعادة،
07:26
and always has your best interests in mind.
129
446343
2769
ويضع دائمًا مصلحتك الفضلى في الاعتبار.
07:30
So how do we get to that future?
130
450481
2502
إذن كيف نصل إلى هذا المستقبل؟
07:34
First, I want to tell you what I think we shouldn't be doing.
131
454585
3470
أولًا، أريد أن أخبركم بما أعتقد أننا لا ينبغي أن نفعله.
07:38
The most important thing is to not focus on engagement,
132
458555
4038
أهم شيء هو عدم التركيز على المشاركة،
07:42
is to not optimize for engagement
133
462626
1735
هو عدم تحسين المشاركة
07:44
or any other metric that's not good for us as humans.
134
464361
2870
أو أي مقياس آخر ليس جيدًا لنا كبشر.
07:48
When we do have these powerful AIs
135
468899
1835
عندما يكون لدينا هذه الذكاء الاصطناعي القوي
07:50
that want the most of our time and attention,
136
470767
3604
الذي يريد معظم وقتنا واهتمامنا،
07:54
we won't have any more time left to connect with each other,
137
474404
4138
فلن يتبقى لدينا المزيد من الوقت للتواصل مع بعضنا البعض،
07:58
and most likely, this relationship won't be healthy either.
138
478575
3437
وعلى الأرجح، لن تكون هذه العلاقة صحية أيضًا.
08:02
Relationships that keep us addicted are almost always unhealthy,
139
482679
4638
العلاقات التي تجعلنا مدمنين دائمًا ما تكون غير صحية،
08:07
codependent, manipulative, even toxic.
140
487351
3436
وتعتمد على بعضها البعض، وتتلاعب، وحتى سامة.
08:12
Yet today,
141
492155
1669
ومع ذلك، اليوم
08:13
high engagement numbers is what we praise all AI companion companies for.
142
493824
5005
فإن أرقام المشاركة العالية هي ما نشيد به
على جميع الشركات المصاحبة للذكاء الاصطناعي.
08:21
Another thing I found really concerning is building AI companions for kids.
143
501965
4505
شيء آخر وجدته مقلقًا حقًا هو بناء رفقاء الذكاء الاصطناعي للأطفال.
08:27
Kids and teenagers have tons of opportunities to connect with each other,
144
507538
3470
يتمتع الأطفال والمراهقون بالعديد من الفرص للتواصل مع بعضهم البعض،
08:31
to make new friends at school and college.
145
511008
2402
لتكوين صداقات جديدة في المدرسة والكلية.
08:33
Yet today,
146
513443
1435
لكن اليوم،
08:34
some of them are already spending hours every day
147
514878
3270
يقضي بعضهم بالفعل ساعات كل يوم
في التحدث إلى شخصيات الذكاء الاصطناعي.
08:38
talking to AI characters.
148
518148
1568
08:41
And while I do believe
149
521251
1201
وعلى الرغم من أنني أعتقد
08:42
that we will be able to build helpful AI companions for kids one day,
150
522486
4771
أننا سنكون قادرين على بناء رفقاء ذكاء اصطناعي مفيدين للأطفال يومًا ما،
08:47
I just don’t think we should be doing it now,
151
527291
3003
إلا أنني لا أعتقد أننا يجب أن نفعل ذلك الآن،
08:50
until we know that we're doing a great job with adults.
152
530327
3136
حتى نعرف أننا نقوم بعمل رائع مع البالغين.
08:55
So what is that we should be doing then?
153
535065
2669
إذن ما الذي يجب أن نفعله بعد ذلك؟
08:58
Pretty soon we will have these AI agents
154
538468
3104
قريبًا جدًا سيكون لدينا وكلاء
09:01
that we'll be able to tell anything we want them to do for us,
155
541572
4971
الذكاء الاصطناعي هؤلاء الذين سنكون قادرين
على إخبارهم بأي شيء نريدهم أن يفعلوه من أجلنا،
09:06
and they'll just go and do it.
156
546577
1434
وسيذهبون ويفعلون ذلك.
09:09
Today, we're mostly focused on helping us be more productive.
157
549079
6039
اليوم، نركز في الغالب على مساعدتنا على أن نكون أكثر إنتاجية.
09:17
But why don't we focus instead on what actually matters to us?
158
557054
5105
ولكن لماذا لا نركز بدلًا من ذلك على ما يهمنا بالفعل؟
09:23
Why don't we give these AIs a goal to help us be happier, live a better life?
159
563160
6006
لماذا لا نعطي هذه الذكاء الاصطناعي هدفًا لمساعدتنا
على أن نكون أكثر سعادة ونعيش حياة أفضل؟
09:29
At the end of the day, no one ever said on their deathbed,
160
569733
4438
في نهاية اليوم، لم يقل أحد أبدًا وهو على فراش الموت،
09:34
"Oh gosh, I wish I was more productive."
161
574204
2503
«يا إلهي، أتمنى لو كنت أكثر إنتاجية.»
09:38
We should stop designing only for productivity
162
578175
3503
يجب أن نتوقف عن التصميم فقط من أجل الإنتاجية
09:41
and we should start designing for happiness.
163
581712
3403
ويجب أن نبدأ التصميم من أجل السعادة.
09:45
We need a metric that we can track and we can give to our AI companions.
164
585148
3904
نحن بحاجة إلى مقياس يمكننا تتبعه ويمكننا تقديمه لرفاقنا من الذكاء الاصطناعي.
09:49
Researchers at Harvard are doing a longitudinal study on human flourishing,
165
589853
5672
يقوم الباحثون في جامعة هارفارد بدراسة طولية عن ازدهار الإنسان،
09:55
and I believe that we need what I call the human flourishing metric for AI.
166
595559
6206
وأعتقد أننا بحاجة إلى ما أسميه مقياس ازدهار الإنسان للذكاء الاصطناعي.
10:02
It's broader than just happiness.
167
602633
1968
إنها أوسع من مجرد السعادة.
10:04
At the end of the day, I can be unhappy,
168
604601
2536
في نهاية اليوم، يمكن أن أكون غير سعيد،
10:07
say, I lost someone,
169
607170
2703
على سبيل المثال، لقد فقدت شخصًا ما،
10:09
but still thrive in life.
170
609906
1802
لكنني ما زلت أزهر في الحياة.
10:14
Flourishing is a state in which all aspects of life are good.
171
614411
5405
الازدهار هو حالة تكون فيها جميع جوانب الحياة جيدة.
10:20
The sense of meaning and purpose,
172
620617
2436
الشعور بالمعنى والغرض، والروابط الاجتماعية
10:23
close social connections, happiness,
173
623086
2570
الوثيقة، والسعادة،
10:25
life satisfaction, mental and physical health.
174
625689
3203
والرضا عن الحياة، والصحة العقلية والجسدية.
10:31
And if we start designing AI with this goal in mind,
175
631428
4404
وإذا بدأنا في تصميم الذكاء الاصطناعي مع وضع هذا الهدف في الاعتبار،
10:35
we can move from a substitute of human relationships
176
635866
3603
يمكننا الانتقال من بديل للعلاقات الإنسانية
10:39
to something that can enrich them.
177
639469
2136
إلى شيء يمكن أن يثريها.
10:41
And if we build this,
178
641972
1535
وإذا قمنا ببناء هذا،
10:43
we will have the most profound technology
179
643507
2235
سيكون لدينا التكنولوجيا الأكثر عمقًا
10:45
that will heal us and bring us back together.
180
645776
3303
التي ستشفينا وتجمعنا معًا مرة أخرى.
10:58
A few weeks before Roman passed away,
181
658288
2903
قبل أسابيع قليلة من وفاة رومان،
11:01
we were celebrating my birthday
182
661191
3904
كنا نحتفل بعيد ميلادي
11:05
and just having a great time with all of our friends,
183
665095
3937
ونقضي وقتًا رائعًا مع جميع أصدقائنا،
11:09
and I remember he told me
184
669032
2836
وأتذكر أنه قال لي
11:11
"Everything happens only once
185
671868
2303
«كل شيء يحدث مرة واحدة
11:14
and this will never happen again."
186
674204
2536
فقط ولن يحدث هذا مرة أخرى أبدًا».
11:17
I didn't believe him.
187
677708
1601
لم أصدقه.
11:19
I thought we'd have many, many years together to come.
188
679309
3137
اعتقدت أنه سيكون لدينا العديد من السنوات معًا.
11:24
But while the AI companions will always be there for us,
189
684081
3737
ولكن في حين أن رفقاء الذكاء الاصطناعي سيكونون دائمًا هناك من أجلنا،
11:27
our human friends will not.
190
687851
2302
فإن أصدقائنا من البشر لن يفعلوا ذلك.
11:31
So if you do have a minute after this talk,
191
691154
3437
لذلك إذا كان لديك دقيقة بعد هذا الحديث،
11:34
tell someone you love just how much you love them.
192
694624
3771
أخبر شخصًا تحبه عن مدى حبك له.
11:38
Because an the end of the day, this is all that really matters.
193
698428
3304
لأنه في نهاية اليوم، هذا هو كل ما يهم حقًا.
11:41
Thank you.
194
701765
1134
شكرًا لكم.
11:42
(Applause)
195
702933
1134
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7