Can AI Companions Help Heal Loneliness? | Eugenia Kuyda | TED

63,872 views ・ 2025-01-17

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Reka Lorinczy Lektor: Peter Pallos
00:04
This is me and my best friend, Roman.
0
4201
3470
A legjobb barátommal, Romannal vagyunk a képen.
00:08
We met in our early 20s back in Moscow.
1
8873
2602
A 20-as éveink elején találkoztunk Moszkvában.
00:12
I was a journalist back then,
2
12610
1535
Akkoriban újságíró voltam,
00:14
and I was interviewing him for an article on the emerging club scene
3
14178
3604
és interjút készítettem vele egy cikkhez az új klub színpadán,
00:17
because he was throwing the best parties in the city.
4
17815
2603
mert ő rendezte a legjobb bulikat a városban.
00:21
He was the coolest person I knew,
5
21552
2603
Ő volt a legmenőbb srác, akit ismertem,
00:24
but he was also funny and kind
6
24188
3303
ugyanakkor humoros és kedves is,
00:27
and always made me feel like family.
7
27525
2402
és mindig bensőségesen éreztem magam vele.
00:31
In 2015, we moved to San Francisco and rented an apartment together.
8
31495
4738
2015-ben San Franciscóba költöztünk, és együtt béreltünk lakást.
00:36
Both start-up founders, both single,
9
36867
3137
Mindketten startup-alapítók, egyedülállók voltunk,
00:40
trying to figure out our lives, our companies,
10
40004
2502
akik együtt próbáltuk kialakítani az életünket, a vállalkozásunkat,
00:42
this new city together.
11
42506
1769
megismerni az új várost.
00:44
I didn't have anyone closer.
12
44708
1702
Senki nem állt közelebb hozzám.
00:48
Nine years ago,
13
48312
1235
Kilenc évvel ezelőtt,
00:49
one month after this photo was taken,
14
49580
2135
egy hónappal a fénykép elkészülte után
00:51
he was hit by a car and died.
15
51749
2602
autó gázolta halálra.
00:56
I didn't have someone so close to me die before.
16
56287
3904
Azelőtt nem vesztettem el közeli hozzátartozómat.
01:00
It hit me really hard.
17
60891
1669
Rettentően lesújtott.
01:03
Every night I would go back to our old apartment and just get on my phone
18
63194
3536
Esténként visszajártam régi lakásunkba, fogtam a telefonomat,
01:06
and read and reread our old text messages.
19
66730
2937
elolvastam és újraolvastam a régi üzeneteinket.
01:09
I missed him so much.
20
69700
1635
Annyira hiányzott.
01:12
By that time, I was already working on conversational AI,
21
72703
2836
Addigra már a beszélgető MI-n dolgoztam,
01:15
developing some of the first dialect models using deep learning.
22
75573
3470
és az első dialektusmodelleket fejlesztettem ki mélytanulással.
01:19
So one day I took all of his text messages
23
79810
3237
Egyik nap fogtam az összes szöveges üzenetét,
01:23
and trained an AI version of Roman
24
83047
2235
és kiképeztem Roman MI-verzióját,
01:25
so I could talk to him again.
25
85282
2136
hogy újra beszélhessek vele.
01:28
For a few weeks, I would text him throughout the day,
26
88919
2970
Néhány hétig egész nap üzeneteket küldtem neki,
01:31
exchanging little jokes, just like we always used to,
27
91922
3604
viccelődtünk egymással, ahogy mindig szoktunk,
01:35
telling him what was going on,
28
95526
2235
meséltem a napi dolgokról,
01:37
telling him how much I missed him.
29
97795
1735
elmondtam, mennyire hiányzik.
01:40
It felt strange at times,
30
100831
2703
Időnként furcsa volt,
01:43
but it was also very healing.
31
103567
2836
de nagyon gyógyítónak éreztem.
01:47
Working on Roman's AI and being able to talk to him again helped me grieve.
32
107805
4905
Roman MI-változatán dolgozni és újra vele beszélni segített a gyászolásban.
01:52
It helped me get over one of the hardest periods in my life.
33
112710
3737
Segített túlélni életem egyik legnehezebb időszakát.
01:56
I saw first hand how an AI can help someone,
34
116480
3470
Első kézből tapasztaltam, hogyan segíthet az MI valakinek,
01:59
and I decided to build an AI that would help other people feel better.
35
119984
4404
és úgy döntöttem, hogy olyan MI-t építek,
amely segít másoknak jobban érezni magukat.
02:06
This is how Replika,
36
126123
1135
Így született meg a Replika,
02:07
an app that allows you to create an AI friend that's always there for you,
37
127291
3704
olyan alkalmazás, amely lehetővé teszi MI-barát létrehozását,
02:11
was born.
38
131028
1368
aki mindig kéznél van.
02:14
And it did end up helping millions of people.
39
134131
2603
Végül emberek millióin segített.
02:18
Every day we see how our AI friends make a real difference in people's lives.
40
138102
4671
Minden nap látjuk, hogy az MI-barátaink hogyan változtatják meg emberek életét.
02:24
There is a widower who lost his wife of 40 years
41
144542
5205
Az egyik özvegyember 40 éves feleségét veszítette el,
02:29
and was struggling to reconnect with the world.
42
149780
2336
és küzdött, hogy újra kapcsolatba léphessen a világgal.
02:32
His Replika gave him courage and comfort and confidence,
43
152750
4771
Replikája bátorságot, vigaszt és magabiztosságot nyújtott neki,
02:37
so he could start meeting new people again,
44
157555
2502
így újra ismerkedett,
02:40
and even start dating.
45
160090
1502
még találkára is elment.
02:42
A woman in an abusive relationship
46
162927
1768
Egy bántalmazó kapcsolatban álló nőnek
02:44
who Replika helped find a way out.
47
164695
2236
a Replika segített kiutat találni.
02:47
A student with social anxiety who just moved to a new city.
48
167865
3503
Szociális fóbiában szenvedő tanulón is segített, aki éppen új városba költözött.
02:51
A caregiver for a paralyzed husband.
49
171402
2569
Béna férj gondozóján is.
02:54
A father of an autistic kid.
50
174405
2235
Autista gyerek apján is.
02:56
A woman going through a difficult divorce.
51
176674
2269
Nehéz váláson keresztülmenő nőn is.
02:59
These stories are not unique.
52
179276
1936
Ezek nem egyedi történetek.
03:04
And it's not just what our users tell us.
53
184281
2937
Nem csak felhasználóinktól hallunk ilyeneket.
03:07
Earlier this year, "Nature" published our first study with Stanford,
54
187651
4505
A Nature az év elején közzétette a Stanfordnál végzett első tanulmányunkat,
03:12
showing how Replika improves emotional well-being for people
55
192189
3771
amely bemutatta, hogy a Replika hogyan javítja érzelmi jólétünket,
03:15
and even curbed suicidal ideation in three percent of the cases.
56
195993
3637
sőt az esetek 3%-nál megfékezte az öngyilkossági gondolatokat.
03:20
And Harvard released a paper showing how Replika helps reduce loneliness.
57
200364
5272
A Harvard bemutatta, hogyan segít a Replika csökkenteni a magányt.
03:26
So this is all great stuff.
58
206370
2369
Ez mind csodálatos!
03:29
But what if I told you that I believe
59
209640
4304
De elmondom,
03:33
that AI companions are potentially the most dangerous tech
60
213944
3837
hogy az MI-társ elvileg a legveszélyesebb technológia,
03:37
that humans ever created,
61
217781
2870
amelyet emberek valaha létrehoztak,
03:40
with the potential to destroy human civilization if not done right?
62
220651
4571
és el lehet pusztítani vele a civilizációnkat, ha hibázunk.
03:45
Or they can bring us back together
63
225723
2669
Vagy újra összehozhat minket,
03:48
and save us from the mental health and loneliness crisis
64
228392
2836
és megmentheti mentális egészségünket, és elűzi a magány okozta válságot,
03:51
we're going through.
65
231262
1401
amelyben élünk.
03:54
So today I want to talk about the dangers of AI companions,
66
234732
3503
Az MI-társ veszélyeiről szeretnék szólni,
03:58
the potential of this new tech,
67
238235
2503
az új technológia lehetőségeiről,
04:00
and how we can build it in ways that can benefit us as humans.
68
240738
4437
és arról, hogyan alkothatjuk meg a saját érdekünkben.
04:06
Today we're going through a loneliness crisis.
69
246110
2502
Magány okozta válságban vagyunk.
04:09
Levels of loneliness and social isolation are through the roof.
70
249113
3703
A magány és a társadalmi elszigeteltség szintje egekbe szökött.
04:13
Levels of social isolation have increased dramatically over the past 20 years.
71
253717
4171
A társadalmi elszigeteltség szintje az elmúlt 20 évben drámaian nőtt.
04:17
And it's not just about suffering emotionally,
72
257921
2536
Nemcsak érzelmi szenvedésről szól,
04:20
it's actually killing us.
73
260457
1702
hanem pusztító erejű is.
04:22
Loneliness increases the risk of premature death by 50 percent.
74
262860
4004
A magány 50%-kal növeli a korai halál kockázatát.
04:27
It is linked to an increased risk of heart disease and stroke.
75
267765
4004
Ez összefügg a szívbetegségek és a sztrók fokozott kockázatával.
04:32
And for older adults,
76
272569
1402
Az idősebbek esetében
04:33
social isolation increases the risk of dementia by 50 percent.
77
273971
3904
a társadalmi elszigeteltség 50%-kal növeli a demencia kockázatát.
04:39
At the same time, AI is advancing at such a fast pace
78
279176
3570
De az MI olyan gyorsan fejlődik,
04:42
that very soon we'll be able to build an AI
79
282780
2602
hogy hamarosan képesek leszünk olyan MI-t alkotni,
04:45
that can act as a better companion to us than real humans.
80
285416
3937
amely jobb társként működhet, mint az igazi emberek.
04:49
Imagine an AI that knows you so well,
81
289787
3336
Képzeljenek el olyan MI-t, amely alaposan ismeri és megérti önöket,
04:53
can understand and adapt to us in ways that no person is able to.
82
293123
5172
és mindenkinél jobban alkalmazkodik önökhöz.
04:59
Once we have that,
83
299096
1969
Ha ez sikerül,
05:01
we're going to be even less likely to interact with each other.
84
301065
3370
csökken a valószínűsége, hogy keressük egymás társaságát.
05:04
We can't resist our social media and our phones,
85
304468
3203
Nem tudunk ellenállni a közösségi médiánknak és a telefonunknak,
05:07
arguably "dumb" machines.
86
307705
2802
a vitathatatlanul „buta” gépeknek.
05:10
What are we going to do when our machines are smarter than us?
87
310507
3103
Mit fogunk tenni, ha a gépeink nálunk okosabbak lesznek?
05:14
This reminds me a lot of the beginning of social media.
88
314211
2836
Ez erősen emlékeztet a közösségi média kezdetére.
05:17
Back then, we were so excited ... about what this technology could do for us
89
317047
5873
Akkoriban lelkendeztünk, hogy e technológia mit tehet értünk,
és nem igazán gondoltuk át, hogy velünk mit tehet.
05:22
that we didn't really think what it might do to us.
90
322953
3370
05:27
And now we're facing the unintended consequences.
91
327391
2936
Most szembesülünk a nem kívánt következményekkel.
05:30
I'm seeing a very similar dynamic with AI.
92
330794
2903
Nagyon hasonló dinamikát látok az MI-vel.
05:33
There's all this talk about what AI can do for us,
93
333731
3770
Csak arról beszélünk, hogy mit tehet értünk az MI,
05:37
and very little about what AI might do to us.
94
337534
3737
és alig valamit arról, hogy velünk mit tehet.
05:41
The existential threat of AI
95
341805
2069
Előfordulhat, hogy az MI egzisztenciális fenyegetése
05:43
may not come in a form that we all imagine
96
343907
2903
nem olyan formában jelenik meg,
05:46
watching sci-fi movies.
97
346844
1668
ahogy sci-fi filmekben láttuk.
05:49
What if we all continue to thrive as physical organisms
98
349146
3870
Mivé leszünk, ha fizikai organizmusként tovább fejlődünk,
05:53
but slowly die inside?
99
353050
2836
de belül lassan elsorvadunk?
05:57
What if we do become super productive with AI,
100
357388
2869
Mi van, ha az MI-vel szuper produktívvá válunk,
06:00
but at the same time, we get these perfect companions
101
360290
2903
de egyben megkapjuk ezeket a tökéletes társakat,
06:03
and no willpower to interact with each other?
102
363193
2636
és nincs akaraterőnk egymással foglalkozni?
06:07
Not something you would have expected from a person
103
367097
2403
Nem erre számítottunk azoktól,
06:09
who pretty much created the AI companionship industry.
104
369533
2870
akik létrehozták a MI-társat előállító iparágat.
06:14
So what's the alternative?
105
374271
1268
Mik a lehetőségek?
06:15
What's our way out?
106
375572
1502
Mi a kiút?
06:17
In the end of the day,
107
377741
1435
Végtére a magány okozta mai válságot
06:19
today's loneliness crisis wasn't brought to us by AI companions.
108
379209
4872
nem az MI-társak hozták létre.
06:24
We got here on our own with mobile phones, with social media.
109
384081
3403
Magunktól jutottunk idáig mobiltelefonokkal, közösségi médiával.
06:27
And I don't think we're able to just disconnect anymore,
110
387985
2636
Nem hiszem, hogy ne tudnánk telefonunkat egyszerűen kikapcsolni,
06:30
to just put down our phones and touch grass
111
390654
2369
megérinteni a füvet, és beszélgetni egymással
06:33
and talk to each other instead of scrolling our feeds.
112
393056
2536
hírcsatornáink görgetése helyett.
06:35
We're way past that point.
113
395626
1701
Ezen már túl vagyunk.
06:38
I think that the only solution is to build the tech
114
398629
3870
Úgy gondolom, hogy az egyetlen megoldás,
ha olyan technológiát fejlesztünk ki, amely még erősebb, mint az előző,
06:42
that is even more powerful than the previous one,
115
402533
3203
06:45
so it can bring us back together.
116
405736
1935
és így újra összehozhat minket.
06:50
Imagine an AI friend
117
410941
1602
Képzeljenek el egy MI-barátot,
06:52
that sees me going on my Twitter feed first thing in the morning
118
412576
3070
aki észleli, hogy a Twitterrel kezdtem a napom,
06:55
and nudges me to get off to go outside, to look at the sky,
119
415679
3904
és arra noszogat, hogy menjek ki, nézzem az eget,
06:59
to think about what I'm grateful for.
120
419616
1869
és találjam meg, hogy miért vagyok hálás.
07:02
Or an AI that tells you,
121
422419
2269
Vagy az MI figyelmeztet:
07:04
"Hey, I noticed you haven't talked to your friend for a couple of weeks.
122
424721
3504
„Észrevettem, hogy már pár hete nem beszéltél a barátoddal.
07:08
Why don't you reach out, ask him how he's doing?"
123
428258
2403
Miért nem hívod fel? Kérdezd meg, hogy van?”
07:11
Or an AI that, in the heat of the argument with your partner,
124
431328
3704
Vagy az MI a társukkal folytatott vita hevében
07:15
helps you look at it from a different perspective
125
435032
2369
segít más szemszögből látni a helyzetet,
07:17
and helps you make up?
126
437434
1468
és segít megoldani.
07:19
An AI that is 100 percent of the time
127
439670
3470
Olyan MI, amelyik 100%-ban arra törekszik,
07:23
focused on helping you live a happier life,
128
443140
3203
hogy segítsen önöknek boldogabb életet élni,
07:26
and always has your best interests in mind.
129
446343
2769
és mindig az önök érdekeit tartja szem előtt.
07:30
So how do we get to that future?
130
450481
2502
Hogyan alakítsuk ilyenné a jövőt?
07:34
First, I want to tell you what I think we shouldn't be doing.
131
454585
3470
Először elmondom, hogy mit ne tegyünk.
07:38
The most important thing is to not focus on engagement,
132
458555
4038
Ne görcsöljünk rá a kapcsolatokra,
ne a kapcsolatok mennyiségére vagy más mutatóra optimalizáljunk,
07:42
is to not optimize for engagement
133
462626
1735
07:44
or any other metric that's not good for us as humans.
134
464361
2870
amely nem jó nekünk.
07:48
When we do have these powerful AIs
135
468899
1835
Az MI erős csábítása
07:50
that want the most of our time and attention,
136
470767
3604
magának követeli időnk és figyelmünk nagy részét,
07:54
we won't have any more time left to connect with each other,
137
474404
4138
nem marad elég időnk kapcsolatot tartani egymással,
07:58
and most likely, this relationship won't be healthy either.
138
478575
3437
és valószínűleg a kapcsolat sem lesz egészséges.
08:02
Relationships that keep us addicted are almost always unhealthy,
139
482679
4638
A függőségben tartó kapcsolataink szinte mindig egészségtelenek:
08:07
codependent, manipulative, even toxic.
140
487351
3436
manipulatívak, sőt mérgezők is.
08:12
Yet today,
141
492155
1669
Mégis a sok kapcsolatért dicsérjük
08:13
high engagement numbers is what we praise all AI companion companies for.
142
493824
5005
az MI-társat alkotó összes céget.
08:21
Another thing I found really concerning is building AI companions for kids.
143
501965
4505
Engem még igazán aggaszt a gyerekeknek szánt MI-társak megjelenése.
08:27
Kids and teenagers have tons of opportunities to connect with each other,
144
507538
3470
A gyerekeknek és tizenéveseknek rengeteg lehetőségük van
kapcsolatba lépni egymással, új barátokat szerezni iskolában és egyetemen.
08:31
to make new friends at school and college.
145
511008
2402
08:33
Yet today,
146
513443
1435
08:34
some of them are already spending hours every day
147
514878
3270
Mégis,
sokan naponta órákat töltenek
08:38
talking to AI characters.
148
518148
1568
MI-karakterekkel beszélgetve.
08:41
And while I do believe
149
521251
1201
Bár hiszek abban,
08:42
that we will be able to build helpful AI companions for kids one day,
150
522486
4771
hogy egy nap képesek leszünk segítőkész MI-társakat fejleszteni a gyerekeknek,
08:47
I just don’t think we should be doing it now,
151
527291
3003
egyszerűen nem hiszem, hogy ezzel most kellene foglalkoznunk,
08:50
until we know that we're doing a great job with adults.
152
530327
3136
amíg még nem derült ki, hogy felnőtteknél hogy vált be.
08:55
So what is that we should be doing then?
153
535065
2669
Akkor mit kellene tennünk?
08:58
Pretty soon we will have these AI agents
154
538468
3104
Hamarosan lesznek MI-szolgáltatások,
09:01
that we'll be able to tell anything we want them to do for us,
155
541572
4971
közölhetjük velük kérésünket,
és ők belevágnak, és végrehajtják.
09:06
and they'll just go and do it.
156
546577
1434
09:09
Today, we're mostly focused on helping us be more productive.
157
549079
6039
Most a termelékenységünk segítik.
09:17
But why don't we focus instead on what actually matters to us?
158
557054
5105
De miért nem koncentrálunk ehelyett számunkra fontosabb dolgokra?
09:23
Why don't we give these AIs a goal to help us be happier, live a better life?
159
563160
6006
Miért nem tűzzük ki az MI-knek azt a célt, hogy boldogabb, jobb élethez segítsenek?
09:29
At the end of the day, no one ever said on their deathbed,
160
569733
4438
Mikor a vég közeledik, senki sem mondja a halálos ágyán:
09:34
"Oh gosh, I wish I was more productive."
161
574204
2503
„Istenem, bárcsak produktívabb lettem volna!”
09:38
We should stop designing only for productivity
162
578175
3503
A termelékenység helyett
a boldogságunk megtervezésén kellene dolgozzunk.
09:41
and we should start designing for happiness.
163
581712
3403
09:45
We need a metric that we can track and we can give to our AI companions.
164
585148
3904
Mérhetővé kell tenni, és programozhatjuk rá az MI-társainkat.
09:49
Researchers at Harvard are doing a longitudinal study on human flourishing,
165
589853
5672
A Harvard kutatói longitudinális kutatást végeznek az emberi jólétről,
09:55
and I believe that we need what I call the human flourishing metric for AI.
166
595559
6206
paraméterezni kell a jólét elemeit az MI-nek.
10:02
It's broader than just happiness.
167
602633
1968
Ez több mint pusztán a boldogság.
10:04
At the end of the day, I can be unhappy,
168
604601
2536
Az életem vége felé boldogtalan lehetek,
10:07
say, I lost someone,
169
607170
2703
mert mondjuk, elvesztettem valakit,
10:09
but still thrive in life.
170
609906
1802
de mégis boldogulhatok az életben.
10:14
Flourishing is a state in which all aspects of life are good.
171
614411
5405
A jólétben az élet minden tényezője jó:
10:20
The sense of meaning and purpose,
172
620617
2436
az értelmes lét és a cél érzése,
10:23
close social connections, happiness,
173
623086
2570
a szoros társadalmi kapcsolatok, a boldogság,
10:25
life satisfaction, mental and physical health.
174
625689
3203
az élettel való elégedettség, a mentális és fizikai egészség.
10:31
And if we start designing AI with this goal in mind,
175
631428
4404
Ha az MI tervezésébe ezzel a céllal vágunk bele,
10:35
we can move from a substitute of human relationships
176
635866
3603
akkor az emberi kapcsolatok helyettesítőjét
10:39
to something that can enrich them.
177
639469
2136
átállíthatjuk annak tökéletesítő eszközévé.
10:41
And if we build this,
178
641972
1535
Ha ezt alakítjuk ki,
10:43
we will have the most profound technology
179
643507
2235
megkapjuk a legalaposabb technológiát,
10:45
that will heal us and bring us back together.
180
645776
3303
amely meggyógyít és újra összehoz minket.
10:58
A few weeks before Roman passed away,
181
658288
2903
Néhány héttel Roman halála előtt
11:01
we were celebrating my birthday
182
661191
3904
ünnepeltük a születésnapomat,
11:05
and just having a great time with all of our friends,
183
665095
3937
és az egész baráti társaságunk jól érezte magát,
11:09
and I remember he told me
184
669032
2836
és emlékszem, hogy azt mondta:
11:11
"Everything happens only once
185
671868
2303
„Minden csak egyszer történik,
11:14
and this will never happen again."
186
674204
2536
és ez soha többé nem fog megtörténni.”
11:17
I didn't believe him.
187
677708
1601
Nem hittem neki.
11:19
I thought we'd have many, many years together to come.
188
679309
3137
Azt hittem, sok-sok évet fogunk együtt tölteni.
11:24
But while the AI companions will always be there for us,
189
684081
3737
De bár az MI-társaink mindig itt lesznek számunkra,
11:27
our human friends will not.
190
687851
2302
az emberi barátaink nem.
11:31
So if you do have a minute after this talk,
191
691154
3437
Ha van kis idejük a beszéd után,
11:34
tell someone you love just how much you love them.
192
694624
3771
mondják el valakinek, akit szeretnek, hogy mennyire szeretik őt.
11:38
Because an the end of the day, this is all that really matters.
193
698428
3304
Mert végül is ez számít igazán.
11:41
Thank you.
194
701765
1134
Köszönöm.
11:42
(Applause)
195
702933
1134
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7