How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Fordító: Zsuzsa Viola Lektor: Reka Lorinczy
00:12
How many decisions have been made about you today,
1
12875
3768
Hány döntést hozott önökről
00:16
or this week or this year,
2
16667
2601
ma, ezen a héten, ebben az évben
00:19
by artificial intelligence?
3
19292
1958
a mesterséges intelligencia (MI) ?
00:22
I build AI for a living
4
22958
1685
Abból élek, hogy az MI-t építem.
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
Szóval, hogy értsék, kocka vagyok.
00:27
And because I'm kind of a nerd,
6
27708
2393
És kocka voltom miatt
00:30
wherever some new news story comes out
7
30125
2351
ha bármikor felbukkan egy új sztori arról,
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
hogy az MI ellopja az állásainkat,
00:35
or robots getting citizenship of an actual country,
9
35958
4185
vagy robotok kapnak állampolgárságot egy országban,
00:40
I'm the person my friends and followers message
10
40167
3142
én vagyok az az ember, akit barátai és követői
00:43
freaking out about the future.
11
43333
1542
nyaggatnak a jövőről.
00:45
We see this everywhere.
12
45833
2101
Ezt látjuk mindenfelé.
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
Ezt a médiapánikot, hogy a robotok átveszik az uralmat.
00:52
We could blame Hollywood for that.
14
52875
1917
Hollywoodot hibáztathatjuk ezért.
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
De a valóságban nem erre a problémára kéne összpontosítanunk.
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
Van egy sürgetőbb veszély, egy nagyobb kockázat az MI-vel,
01:04
that we need to fix first.
17
64917
1583
először azt kéne megoldani.
01:07
So we are back to this question:
18
67417
2309
Ezért visszatérek erre a kérdésre:
01:09
How many decisions have been made about you today by AI?
19
69750
4708
Hány döntést hozott önökkel kapcsolatban ma az MI?
01:15
And how many of these
20
75792
1976
És ezek közül mennyi alapult
01:17
were based on your gender, your race or your background?
21
77792
4500
a nemükön, a fajukon, vagy a hátterükön?
01:24
Algorithms are being used all the time
22
84500
2768
Folyamatosan használnak algoritmusokat arra,
01:27
to make decisions about who we are and what we want.
23
87292
3833
hogy döntsenek arról, kik vagyunk és mit akarunk.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
Néhány nő a teremben tudja, miről beszélek,
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
ha kénytelenek voltak végignézni terhességiteszt-reklámokat a YouTube-on,
01:39
like 1,000 times.
26
99667
2059
nagyjából ezerszer,
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
vagy termékenységi klinikák reklámjait görgették át
01:44
on your Facebook feed.
28
104625
2042
Facebook-csatornájukon,
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
vagy esetemben indiai házasságközvetítőkét.
01:50
(Laughter)
30
110042
1267
(Nevetés)
01:51
But AI isn't just being used to make decisions
31
111333
2976
De az MI nem csak arról dönt,
01:54
about what products we want to buy
32
114333
2601
mit akarunk vásárolni,
01:56
or which show we want to binge watch next.
33
116958
2500
vagy mit szeretnénk legközelebb megnézni.
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
Vajon mi lenne a véleményük valakiről, aki így gondolkodik:
02:06
"A black or Latino person
35
126250
1934
"Egy fekete vagy latin ember
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
kisebb eséllyel fizeti vissza időben a hitelét, mint egy fehér."
02:13
"A person called John makes a better programmer
37
133542
2809
"Egy John nevű ember jobb programozó lehet,
02:16
than a person called Mary."
38
136375
1667
mint akit Marynek hívnak."
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
"Egy fekete nagyobb valószínűséggel válik visszaeső bűnözővé, mint egy fehér."
02:26
You're probably thinking,
40
146958
1268
Valószínűleg azt gondolják:
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
"Hú, ez elég szexista és rasszista ember!" Igaz?
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
Ez néhány, MI által mostanában hozott tényleges döntés,
02:37
based on the biases it has learned from us,
43
157875
2934
ami a tőlünk tanult előítéleteken alapul.
02:40
from the humans.
44
160833
1250
Tőlünk, emberektől.
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
Az MI-t használják annak eldöntésére, ki kaphat állásinterjút,
02:48
how much you pay for your car insurance;
46
168583
2393
mennyit kell fizetnünk az autóbiztosításunkért,
02:51
how good your credit score is;
47
171000
1893
mennyire jó a hitelképességünk,
02:52
and even what rating you get in your annual performance review.
48
172917
3125
és még arról is, milyen értékelést kapunk éves teljesítményünkre.
02:57
But these decisions are all being filtered through
49
177083
3143
De minden ilyen döntést a hovatartozásunkkal, rasszunkkal,
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
nemünkkel, korunkkal kapcsolatos feltételezések befolyásolnak.
03:08
How is that happening?
51
188250
2268
Hogy lehetséges ez?
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
Képzeljék el, hogy az MI egy humánerőforrás-menedzsernek segít
03:14
find the next tech leader in the company.
53
194083
2851
megtalálni a következő informatikai vezetőt a cég számára.
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
Idáig a menedzser főleg férfiakat alkalmazott.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
Így az MI azt tanulja, hogy férfiak inkább válnak programozóvá, mint nők.
03:25
And it's a very short leap from there to:
56
205542
2892
Innen már csak egy kis ugrás,
03:28
men make better programmers than women.
57
208458
2042
hogy a férfiak jobb programozók, mint a nők.
03:31
We have reinforced our own bias into the AI.
58
211417
3726
Betápláltuk előítéletünket az MI-be,
03:35
And now, it's screening out female candidates.
59
215167
3625
és az most kiszűri a nőket.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
Várjunk csak, ha egy humánerőforrás-menedzser tenné ezt,
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
dühösek lennénk, nem engednénk.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
Ez egyfajta nemi diszkrimináció, ami nem jó.
03:49
And yet somehow, AI has become above the law,
63
229833
4518
És mégis, valahogy az MI törvény felettivé vált,
03:54
because a machine made the decision.
64
234375
2083
mert egy gép hozta a döntést.
03:57
That's not it.
65
237833
1518
Nem csak erről van szó.
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
Az MI-vel való kapcsolatteremtés is előítéleteinket erősíti.
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
Milyen gyakran használunk olyan hangasszisztenseket,
mint Siri, Alexa és Cortana?
04:10
They all have two things in common:
68
250917
2559
Két dologban mind megegyeznek: nem tudják helyesen kiejteni a nevem,
04:13
one, they can never get my name right,
69
253500
3101
04:16
and second, they are all female.
70
256625
2667
és valamennyien nők.
04:20
They are designed to be our obedient servants,
71
260417
2767
Arra tervezték őket, hogy engedelmes szolgáink legyenek.
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
Felgyújtsák és leoltsák a lámpáinkat, vásároljanak számunkra.
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
Férfi MI-k is vannak, de rendszerint nagyobb hatalmúak:
04:30
like IBM Watson, making business decisions,
74
270458
3059
Mint az IBM Watsonja, amely üzleti döntéseket hoz,
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
A Salesforce Einsteinje, vagy ROSS, a robotügyvéd.
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
Szóval még a szegény robotok is szexizmustól szenvednek a munkahelyen.
04:42
(Laughter)
77
282292
1125
(Nevetés)
04:44
Think about how these two things combine
78
284542
2851
Gondoljanak bele, hogy függ össze ez a két dolog,
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
és hogyan hat egy gyerekre, aki napjaink MI-vel teli világában nő fel.
04:52
So they're doing some research for a school project
80
292750
2934
Például kutatást végeznek egy iskolai projekthez,
04:55
and they Google images of CEO.
81
295708
3018
és Google-képeket keresnek vezérigazgatókról.
04:58
The algorithm shows them results of mostly men.
82
298750
2893
Az algoritmus főleg férfiakról mutat nekik képeket.
05:01
And now, they Google personal assistant.
83
301667
2559
Aztán személyi asszisztenst gugliznak,
05:04
As you can guess, it shows them mostly females.
84
304250
3434
Mint kitalálhatják, főleg nőket látnak.
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
Majd valami zenét szeretnének, és talán ételt rendelnek,
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
és ekkor odavetnek pár parancsot egy engedelmes női hangú asszisztensnek.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
Ezt a technológiát napjaink legkiválóbb elméi hozzák létre.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
Egy technológiát, amelyet bárhogy létrehozhatnának, ahogy csak akarják.
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
És mégis, az 1950-es évek "Mad Man" titkár stílusában teszik ezt.
05:34
Yay!
90
334792
1500
Hurrá!
05:36
But OK, don't worry,
91
336958
1310
De ne aggódjanak!
05:38
this is not going to end with me telling you
92
338292
2059
Nem fejezem be azzal, hogy azt mondom önöknek,
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
mindnyájan egy szexista, rasszista gépek által vezetett világ felé tartunk.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
A jó hír az MI-ről, hogy teljesen az irányításunk alatt áll.
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
Valós értékeket és erkölcsöt kell tanítanunk neki.
05:56
So there are three things we can do.
96
356167
2184
Három dolgot tehetünk:
05:58
One, we can be aware of our own biases
97
358375
3351
Az első, hogy tudatában lehetünk saját előítéleteinknek,
06:01
and the bias in machines around us.
98
361750
2726
és a gépekben lévő előítéletnek is.
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
A második: változatos összetételű csapatot biztosítunk a technológia építésére.
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
És a harmadik: megoldjuk, hogy sokrétűbb tapasztalatokra építhesse tudását.
06:14
I can talk about the first two from personal experience.
101
374875
3309
Az első kettőről személyes tapasztalataim alapján is beszélhetek.
06:18
When you work in technology
102
378208
1435
Ha a műszaki tudományok területén dolgozunk,
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
és nem hasonlítunk Mark Zuckerberghez vagy Elon Muskhoz,
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
az életünk kissé bonyolult, képességeinket megkérdőjelezik.
06:27
Here's just one example.
105
387875
1393
Itt egy példa:
06:29
Like most developers, I often join online tech forums
106
389292
3726
Mint a legtöbb fejlesztő, gyakran csatlakozom online tech fórumokhoz,
06:33
and share my knowledge to help others.
107
393042
3226
hogy tudásommal másokat segítsek.
06:36
And I've found,
108
396292
1309
És rájöttem,
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
hogy amikor saját nevem alatt, saját fotómmal teszem ezt,
06:41
I tend to get questions or comments like this:
110
401625
4601
rendszeresen kapok ilyen kérdéseket és kommenteket, mint:
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
"Miből gondolod, hogy elég képzett vagy ahhoz, hogy az MI-ről beszélj?"
06:50
"What makes you think you know about machine learning?"
112
410458
3476
"Miből gondolod, hogy értesz a gépi tanuláshoz?
06:53
So, as you do, I made a new profile,
113
413958
3435
Így tehát csináltam egy új profilt,
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
és a saját képem helyett egy macskát választottam sugárhajtású felszereléssel.
És olyan nevet választottam, amely nem fedi fel a nememet.
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
07:05
You can probably guess where this is going, right?
116
425917
2726
Valószínűleg kitalálják, hova akarok kilyukadni, ugye?
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
Szóval ezúttal nem kaptam egy leereszkedő kommentet sem a képességeimről,
07:15
and I was able to actually get some work done.
118
435083
3334
és lehetővé vált, hogy némi munkát végezzek.
07:19
And it sucks, guys.
119
439500
1851
Baromság, srácok.
07:21
I've been building robots since I was 15,
120
441375
2476
15 éves korom óta építek robotokat.
07:23
I have a few degrees in computer science,
121
443875
2268
Van néhány diplomám informatikából,
07:26
and yet, I had to hide my gender
122
446167
2434
és mégis, el kellett rejtenem a nememet,
07:28
in order for my work to be taken seriously.
123
448625
2250
azért, hogy a munkámat komolyan vegyék.
07:31
So, what's going on here?
124
451875
1893
Szóval, mi folyik itt?
07:33
Are men just better at technology than women?
125
453792
3208
Jobbak a férfiak a nőknél a technikában?
07:37
Another study found
126
457917
1559
Egy másik tanulmány kimutatta,
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
hogy amikor női programozók egy platformon nemüket rejtve dolgoznak,
07:44
their code was accepted four percent more than men.
128
464458
3250
programjaik 4 százalékkal nagyobb arányban kerültek elfogadásra a férfiakénál.
07:48
So this is not about the talent.
129
468542
2916
Úgyhogy ez nem a tehetségről szól,
07:51
This is about an elitism in AI
130
471958
2893
hanem a megkülönböztetésről az MI területén,
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
mely behatárolja, hogy néz ki egy programozó.
07:59
What we really need to do to make AI better
132
479375
3101
Amit mindenképpen meg kell tennünk, hogy az MI jobbá váljon,
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
hogy eltérő hátterű embereket kell előtérbe hoznunk,
Szükségünk van olyan emberekre, akik történeteket mondanak és írnak,
08:06
We need people who can write and tell stories
134
486542
2559
08:09
to help us create personalities of AI.
135
489125
2167
melyekkel segítenek bennünket MI személyiségek létrehozásában.
08:12
We need people who can solve problems.
136
492208
2042
Problémamegoldó emberekre van szükségünk.
08:15
We need people who face different challenges
137
495125
3768
Emberekre, akik különféle kihívásokkal néznek szembe,
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
akik elmondják nekünk, melyek a valódi, javítást igénylő hibák,
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
és segítenek megtalálni a kijavításukhoz szükséges technikai módszereket.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
Mert amikor különböző hátterű emberek jönnek össze,
08:33
when we build things in the right way,
141
513583
2143
amikor megfelelően építjük a dolgokat,
08:35
the possibilities are limitless.
142
515750
2042
a lehetőségek határtalanok.
08:38
And that's what I want to end by talking to you about.
143
518750
3309
Erről kívánok beszélni befejezésül,
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
nem annyira a rasszista robotokról, vagy a munkánkat elvevő gépekről,
08:46
and more about what technology can actually achieve.
145
526332
3125
hanem inkább arról, mit lehet a technológiával elérni.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
Szóval, igen, az MI energiáinak egy része,
08:53
in the world of technology
147
533750
1393
a technológia világának bizonyos hányada arról szól,
08:55
is going to be about what ads you see on your stream.
148
535167
4267
milyen reklámokat látunk a csatornánkon.
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
De nagy része abba az irányba halad, hogy a világot sokkal jobbá tegyük.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
Gondoljunk egy terhes nőre, aki a Kongói Demokratikus Köztársaságban
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
17 órát sétál a legközelebbi vidéki szülészeti klinikára,
09:13
to get a checkup.
152
553500
1851
hogy kivizsgálják.
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
Mi lenne, ha ehelyett telefonon kaphatna diagnózist?
09:19
Or think about what AI could do
154
559750
1809
Vagy gondoljunk arra, mit jelenthetne az MI
09:21
for those one in three women in South Africa
155
561583
2726
minden harmadik nőnek Dél-Afrikában,
09:24
who face domestic violence.
156
564333
2125
akik családon belüli erőszakkal szembesülnek.
09:27
If it wasn't safe to talk out loud,
157
567083
2726
Ha nem volna biztonságos hangosan kiabálni,
09:29
they could get an AI service to raise alarm,
158
569833
2476
kaphatnak egy MI szolgáltatást a riasztáshoz,
09:32
get financial and legal advice.
159
572333
2459
pénzügyi vagy jogi tanácshoz.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
Ezek mind olyan, projektekből vett valódi példák,
amelyeken éppen dolgozunk, az MI-t használva.
09:41
are working on right now, using AI.
161
581000
2500
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
Biztos vagyok benne, hogy pár napon belül megint felröppen egy újabb hír
09:49
about the existential risk,
163
589167
2684
az egzisztenciális kockázatról,
09:51
robots taking over and coming for your jobs.
164
591875
2434
hogy jönnek a robotok, és átveszik a munkánkat.
09:54
(Laughter)
165
594333
1018
(Nevetés)
09:55
And when something like that happens,
166
595375
2309
És amikor ilyesmi történik,
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
tudom, hogy ugyanazokat a jövő miatt aggódó üzeneteket fogom kapni,
10:01
But I feel incredibly positive about this technology.
168
601333
3667
de nagyon pozitívan gondolok erre a technológiára.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
Ez az esélyünk egyenlőbb új világot alkotni.
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
De azért, hogy így legyen, a kezdetektől jól kell felépíteni.
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
Kellenek különféle nemű, fajú, nemi identitású és hátterű emberek.
10:26
We need women to be the makers
172
626458
2476
Szükségünk van nőkre, akik alkotnak,
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
és nem csak gépek, akik végrehajtják az alkotók parancsát.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
Nagyon meg kell gondolnunk, mit tanítunk a gépeknek,
10:37
what data we give them,
175
637667
1642
milyen adatokkal látjuk el őket,
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
hogy ne csupán múltbéli hibáink megismétlői legyenek.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
Remélem, később majd elgondolkoznak két dolgon:
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
Először is napjaink előítéleteiről.
10:53
And that the next time you scroll past an advert
179
653125
3184
És hogy legközelebb, amikor egy reklámot görgetnek át,
10:56
that assumes you are interested in fertility clinics
180
656333
2810
amely feltételezi, hogy érdeklik önöket a termékenységi klinikák
10:59
or online betting websites,
181
659167
2851
vagy az online fogadó oldalak,
11:02
that you think and remember
182
662042
2017
gondolnak majd arra, és emlékezni fognak rá,
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
hogy ugyanez a technológia feltételezi, hogy egy néger ember visszaeső lehet,
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
vagy egy nő esetében valószínűbb, hogy személyi asszisztens lesz,
nem pedig vezérigazgató.
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
És remélem, ez emlékezteti majd önöket, hogy valamit tennünk kell ebben az ügyben.
11:20
And second,
186
680917
1851
Másodszor: remélem, elgondolkodnak arról,
11:22
I hope you think about the fact
187
682792
1892
11:24
that you don't need to look a certain way
188
684708
1976
hogy nem kell egy bizonyos módon kinéznünk,
11:26
or have a certain background in engineering or technology
189
686708
3851
vagy bizonyos háttérrel rendelkeznünk a tervezésben és a technikában,
11:30
to create AI,
190
690583
1268
hogy olyan MI-t hozzunk létre,
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
amely rendkívüli erővé válik a jövőben.
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
Nem kell Mark Zuckerberghez hasonlítanunk.
11:38
you can look like me.
193
698333
1250
Nézhet ki valaki hozzám hasonlóan is.
11:41
And it is up to all of us in this room
194
701250
2893
Ebben a teremben mindenkin múlik,
11:44
to convince the governments and the corporations
195
704167
2726
hogy meggyőzzük a kormányokat és a vállalkozókat,
11:46
to build AI technology for everyone,
196
706917
2892
hogy az MI technológiát az összes ember számára építsük,
11:49
including the edge cases.
197
709833
2393
beleértve a kirívó eseteket is.
11:52
And for us all to get education
198
712250
2059
És hogy mindnyájan kapjunk képzést
11:54
about this phenomenal technology in the future.
199
714333
2375
erről a rendkívüli jövőbeni technológiáról.
11:58
Because if we do that,
200
718167
2017
Mert ha így lesz,
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
akkor csak épphogy belekóstoltunk abba, amit az MI-vel elérhetünk.
12:05
Thank you.
202
725125
1268
Köszönöm.
12:06
(Applause)
203
726417
2708
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7