Why we have an emotional connection to robots | Kate Darling

138,301 views ・ 2018-11-06

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Översättare: Fanny Matt Granskare: Lisbeth Pekkari
00:13
There was a day, about 10 years ago,
1
13047
2508
Det var en dag, för ungefär 10 år sedan,
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
som jag bad en vän att hålla en robot i form av en dinosauriebebis upp och ned.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Det var en leksak som kallas Pleo som jag hade beställt,
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
och jag var väldigt glad över det eftersom jag alltid älskat robotar.
00:29
And this one has really cool technical features.
5
29784
2279
Just denna har väldigt coola tekniska egenskaper.
00:32
It had motors and touch sensors
6
32087
2119
Den hade motorer och rörelsesensorer
00:34
and it had an infrared camera.
7
34230
2244
och den hade en infraröd kamera.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
En av funktionerna den hade var en lutningssensor,
00:39
so it knew what direction it was facing.
9
39285
2318
så den visste i vilken riktning den var vänd.
00:42
And when you held it upside down,
10
42095
2134
När du höll den upp och ned,
00:44
it would start to cry.
11
44253
1572
så började den gråta.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Jag tyckte det var jättehäftigt, så jag visade upp den för min vän,
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
och jag sade "Håll upp den i svansen. Se vad den gör."
00:55
So we're watching the theatrics of this robot
14
55268
3625
Så vi håller på att observera robotens agerande,
00:58
struggle and cry out.
15
58917
2199
kämpande och gråtande.
01:02
And after a few seconds,
16
62767
2047
Efter en stund,
01:04
it starts to bother me a little,
17
64838
1972
så börjar det besvära mig lite,
01:07
and I said, "OK, that's enough now.
18
67744
3424
och jag sade "OK, nu räcker det.
01:11
Let's put him back down."
19
71930
2305
Vi sätter ned honom igen."
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Sedan klappade jag roboten för att få den att sluta gråta.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Det var en konstig erfarenhet för mig.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
För det första var jag inte en särskilt moderlig person vid det tillfället.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Men sedan jag blev mamma för nio månader sedan,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
har jag lärt mig att bebisar också gråter när man håller dem upp och ned.
01:32
(Laughter)
25
92889
1563
(Skratt)
01:35
But my response to this robot was also interesting
26
95023
2358
Min respons till den här roboten var intressant,
01:37
because I knew exactly how this machine worked,
27
97405
4101
eftersom jag visste exakt hur den här maskinen fungerade,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
och ändå kände jag att jag behövde vara snäll mot den.
01:46
And that observation sparked a curiosity
29
106450
2707
Den observationen väckte en nyfikenhet
01:49
that I've spent the past decade pursuing.
30
109181
2832
som jag har ägnat mig åt under det senaste årtiondet.
01:52
Why did I comfort this robot?
31
112911
1793
Varför tröstade jag roboten?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
En av sakerna jag upptäckte var att min behandling av den här maskinen
01:59
was more than just an awkward moment in my living room,
33
119831
3701
var mer än bara ett besvärligt ögonblick i mitt vardagsrum,
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
att i en värld där vi mer och mer integrerar robotar i våra liv,
02:09
an instinct like that might actually have consequences,
35
129000
3126
kan en sådan instinkt faktiskt ha konsekvenser,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
eftersom det första jag märkte var att det inte bara är jag.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
2007 rapporterade Washington Post att USA:s militär
02:24
was testing this robot that defused land mines.
38
144075
3230
höll på att testa en robot som desarmerade landminor.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Den fungerade så att den var formad som en vandrande pinne
02:30
and it would walk around a minefield on its legs,
40
150265
2651
och den gick runt på ett minfält på sina ben,
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
och varje gång den trampade på en mina, så sprängdes ett ben sönder,
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
och sen fortsatte den på de andra benen och sprängde fler minor.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
Översten som ledde det här testet
02:43
ends up calling it off,
44
163061
2118
avbröt till slut övningen,
02:45
because, he says, it's too inhumane
45
165203
2435
eftersom han menade att det var för inhumant
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
att se den skadade roboten släpa sig fram över minfältet.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Vad skulle kunna göra att en tuff militär officer
02:58
and someone like myself
48
178899
2043
och någon som jag själv
03:00
to have this response to robots?
49
180966
1857
har en sådan respons till robotar?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Vi är såklart påverkade av science fiction och populärkultur
03:06
to really want to personify these things,
51
186871
2579
att vilja personifiera de här sakerna,
03:09
but it goes a little bit deeper than that.
52
189474
2789
men det går lite djupare än så.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Vi är tydligen biologiskt programmerade till att projicera vilja och liv
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
på all rörelse i vår fysiska omgivning som för oss verkar vara självständig.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Så människor kommer att behandla alla slags robotar som levande varelser.
03:26
These bomb-disposal units get names.
56
206703
2683
Minröjarrobotarna får egna namn.
03:29
They get medals of honor.
57
209410
1682
De får hedersmedaljer.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
De har haft begravningar för dem med kanonsalut.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Forskning visar att vi även gör detta med enkla hushållsrobotar,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
som Roomba-dammsugaren.
03:40
(Laughter)
61
220396
1291
(Skratt)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Det är bara en disk som åker runt på ditt golv och rengör det,
03:44
but just the fact it's moving around on its own
63
224824
2306
men det faktum att den åker omkring på egen hand
03:47
will cause people to name the Roomba
64
227154
2167
gör så att folk döper sin Roomba
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
och tycker synd om den när den fastnar under soffan.
03:52
(Laughter)
66
232551
1865
(Skratt)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
Vi kan designa robotar för att framkalla den här reaktionen,
03:57
using eyes and faces or movements
68
237804
3461
genom att använda ögon och ansikten eller rörelser
04:01
that people automatically, subconsciously associate
69
241289
3259
som folk automatiskt, undermedvetet associerar
04:04
with states of mind.
70
244572
2020
med känslor.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
Det finns ett helt forskningsområde kallat människa-robotinteraktion
04:09
that really shows how well this works.
72
249933
1826
som visar hur väl det här fungerar.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Till exempel har forskare vid Stanfords universitet upptäckt
04:14
that it makes people really uncomfortable
74
254933
2001
att det gör folk väldigt obekväma
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
om du ber dem att ta på en robots intima delar.
04:19
(Laughter)
76
259454
2120
(Skratt)
04:21
So from this, but from many other studies,
77
261598
2023
Från denna, men även många andra studier,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
vet vi att människor reagerar på dessa signaler
04:27
by these lifelike machines,
79
267892
2022
från dessa naturtrogna maskiner,
04:29
even if they know that they're not real.
80
269938
2017
fastän de vet att de inte är verkliga.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Nu är vi på väg mot en värld där robotar finns överallt.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
Robotteknik träder ut genom fabriksväggarna.
04:40
It's entering workplaces, households.
83
280823
3013
Den kommer in på arbetsplatser, i hushåll.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
I och med att dessa maskiner som kan läsa av, ta egna beslut och lära sig saker
04:50
enter into these shared spaces,
85
290093
2552
träder in i dessa gemensamma utrymmen,
04:52
I think that maybe the best analogy we have for this
86
292669
2496
tror jag att den bästa analogin vi har för detta
04:55
is our relationship with animals.
87
295189
1935
är vår relation till djur.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
För tusentals år sedan började vi tämja djur,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
vi tränade dem för arbete, beväpning och sällskap.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Genom historien har vi behandlat vissa djur som verktyg eller produkter,
05:10
and other animals, we've treated with kindness
91
310513
2174
och andra djur har vi behandlat med vänlighet
05:12
and we've given a place in society as our companions.
92
312711
3078
och vi har gett dem en plats i samhället som våra kamrater.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Jag tror det är sannolikt att vi kommer börja integrera robotar på liknande sätt.
05:21
And sure, animals are alive.
94
321484
3096
Och visst, djur är levande.
05:24
Robots are not.
95
324604
1150
Robotar är det inte.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Och jag kan säga, efter att ha jobbat med robottekniker,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
att vi är ganska långt från att utveckla robotar som har känslor.
05:35
But we feel for them,
98
335072
1460
Men vi känner med dem,
05:37
and that matters,
99
337835
1207
och det spelar roll,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
för om vi försöker integrera robotar i våra gemensamma rum,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
behöver vi förstå att folk kommer att behandla dem annorlunda än andra maskiner,
05:47
and that in some cases,
102
347369
1844
och att i vissa fall,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
till exempel i fallet med en soldat som blir känslomässigt fäst
05:52
to the robot that they work with,
104
352433
2047
till den robot hen arbetar med,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
kan det bli allt från ineffektivt till farligt.
05:58
But in other cases, it can actually be useful
106
358551
2138
I andra fall kan det faktiskt vara användbart
06:00
to foster this emotional connection to robots.
107
360713
2623
att vårda den känslomässiga anknytningen till robotar.
06:04
We're already seeing some great use cases,
108
364184
2134
Vi ser redan några viktiga användningsområden,
06:06
for example, robots working with autistic children
109
366342
2604
exempelvis robotar som arbetar med autistiska barn
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
för att engagera dem på sätt vi inte har sett tidigare,
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
eller robotar som jobbar med lärare och uppmuntrar barns lärande med nya resultat.
06:17
And it's not just for kids.
112
377433
1381
Det är inte bara för barn.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Tidigare studier visar att robotar kan hjälpa läkare och patienter
06:22
in health care settings.
114
382997
1427
i sjukvårdssituationer.
06:25
This is the PARO baby seal robot.
115
385535
1810
Detta är PARO, en sälbebisrobot.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Den används på vårdhem och med demenspatienter.
06:30
It's been around for a while.
117
390678
1570
Den har funnits ganska länge.
06:32
And I remember, years ago, being at a party
118
392272
3325
Jag minns, för flera år sedan, när jag var på en fest
06:35
and telling someone about this robot,
119
395621
2571
och berättade för någon om den här roboten,
06:38
and her response was,
120
398216
2126
och hennes svar var,
06:40
"Oh my gosh.
121
400366
1262
"Herregud.
06:42
That's horrible.
122
402508
1188
Vad hemskt.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Det är otroligt att vi ger folk robotar istället för mänsklig vård."
06:50
And this is a really common response,
124
410540
1875
Detta är ett väldigt vanligt svar,
06:52
and I think it's absolutely correct,
125
412439
2499
och jag tycker att det stämmer,
06:54
because that would be terrible.
126
414962
2040
för det vore ju hemskt.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Men nu är det inte det som roboten ersätter.
07:00
What this robot replaces is animal therapy
128
420858
3120
Det som roboten ersätter är djurterapi
07:04
in contexts where we can't use real animals
129
424002
3198
i sammanhang där vi inte kan använda riktiga djur,
07:07
but we can use robots,
130
427224
1168
men kan använda robotar,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
eftersom folk alltid kommer att behandla dem mer som djur än en maskin.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Att erkänna det känslomässiga bandet till robotar
07:17
can also help us anticipate challenges
133
437906
1969
kan även hjälpa oss att förutse problem
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
när dessa apparater flyttar in i mer intima delar av folks liv.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Är det till exempel OK att ditt barns gosedjursrobot
07:27
records private conversations?
136
447539
2237
spelar in privata samtal?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Är det OK att din sexrobot har lockande köp inuti appen?
07:33
(Laughter)
138
453887
1396
(Skratt)
07:35
Because robots plus capitalism
139
455307
2501
För robotar plus kapitalism
07:37
equals questions around consumer protection and privacy.
140
457832
3705
är lika med frågor kring konsumentskydd och integritet.
07:42
And those aren't the only reasons
141
462549
1612
Och det är inte de enda skälen
07:44
that our behavior around these machines could matter.
142
464185
2570
till att vårt beteende kring dessa maskiner kan spela roll.
07:48
A few years after that first initial experience I had
143
468747
3270
Några år efter den där första erfarenheten jag hade
07:52
with this baby dinosaur robot,
144
472041
2311
med den här dinosauriebebisroboten
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
gjorde jag en workshop med min vän Hannes Gassert.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Vi tog fem av dessa dinosauriebebisrobotar
07:59
and we gave them to five teams of people.
147
479822
2453
och gav dem till fem grupper av människor.
08:02
And we had them name them
148
482299
1697
Vi fick dem att namnge dem
08:04
and play with them and interact with them for about an hour.
149
484020
3809
och leka med dem och interagera med dem i ungefär en timme.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Sen tog vi fram en hammare och en yxa
08:10
and we told them to torture and kill the robots.
151
490937
2278
och vi bad dem att tortera och döda robotarna.
08:13
(Laughter)
152
493239
3007
(Skratt)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Det visade sig bli lite mer dramatiskt
08:19
than we expected it to be,
154
499175
1278
än vi förväntat oss,
08:20
because none of the participants would even so much as strike
155
500477
3072
eftersom ingen av deltagarna ens ville slå till
08:23
these baby dinosaur robots,
156
503573
1307
bebisdinosaurierobotarna,
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
så vi fick improvisera lite, och vid ett tillfälle sade vi,
"OK, ni kan rädda ert lags robot om ni förstör ett annat lags robot."
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
08:34
(Laughter)
159
514539
1855
(Skratt)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Inte ens det fungerade. De kunde inte göra det.
08:39
So finally, we said,
161
519058
1151
Så till slut sade vi,
08:40
"We're going to destroy all of the robots
162
520233
2032
"Vi kommer att förstöra alla robotarna
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
om inte någon använder yxan på en av dem."
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Och en kille ställde sig upp, tog yxan,
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
och hela rummet ryckte till när han slog ned yxan
08:51
on the robot's neck,
166
531919
1780
på robotens nacke,
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
och det uppstod ett halvt skämtsamt, halvt allvarligt
ögonblick av tystnad i rummet för den fallna roboten.
09:00
for this fallen robot.
168
540085
1698
09:01
(Laughter)
169
541807
1406
(Skratt)
09:03
So that was a really interesting experience.
170
543237
3694
Så det var en väldigt intressant upplevelse.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Det var ju såklart inte en kontrollerad studie,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
men det ledde till senare forskning som jag gjorde på MIT
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
med Palash Nandy och Cynthia Breazeal,
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
där folk fick komma till labbet och krossa dessa HEXBUGS
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
som rör sig på ett väldigt naturtroget sätt, som insekter.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Istället för att välja något gulligt som människor dras till,
09:24
we chose something more basic,
177
564484
2093
valde vi något mer simpelt,
09:26
and what we found was that high-empathy people
178
566601
3480
och vi upptäckte att personer med hög empati
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
tvekade mer inför att krossa våra HEXBUGS.
09:33
Now this is just a little study,
180
573575
1564
Det här är bara en liten studie,
09:35
but it's part of a larger body of research
181
575163
2389
men det är en del av ett större forskningsområde
09:37
that is starting to indicate that there may be a connection
182
577576
2944
som börjar visa på att det kan finnas en koppling
09:40
between people's tendencies for empathy
183
580544
2373
mellan folks tendenser för empati
09:42
and their behavior around robots.
184
582941
1976
och hur de beter sig med robotar.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Men min fråga för den kommande eran av människa-robotinteraktion
09:49
is not: "Do we empathize with robots?"
186
589372
3055
är inte: "Empatiserar vi med robotar?"
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
Utan: "Kan robotar ändra människors empati?"
09:57
Is there reason to, for example,
188
597489
2287
Finns det exempelvis en mening med
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
att hindra ditt barn från att sparka en robothund,
10:03
not just out of respect for property,
190
603228
2914
inte bara av respekt för egendom,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
men för att barnet kan vara mer benäget att sparka en riktig hund?
10:10
And again, it's not just kids.
192
610507
1883
Igen, det handlar inte bara om barn.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Det är den våldsamma datorspelsfrågan, men på en helt ny nivå
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
på grund av den här fysiska dimensionen som vi reagerar mer intensivt på
10:22
than to images on a screen.
195
622428
1547
än bilder på en skärm.
10:25
When we behave violently towards robots,
196
625674
2578
När vi beter oss våldsamt mot robotar,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
speciellt robotar som är designade att likna en levande varelse,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
är det ett hälsosamt utlopp för våldsamt beteende
10:35
or is that training our cruelty muscles?
199
635336
2544
eller är det en träning av våra grymhetsmuskler?
10:39
We don't know ...
200
639511
1150
Vi vet inte...
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Men svaret på denna fråga har potential att påverka mänskligt beteende,
10:46
it has the potential to impact social norms,
202
646591
2768
det har potential att påverka sociala normer,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
det har potential att ge upphov till regler om vad vi får och inte får göra
10:53
with certain robots,
204
653256
1151
med vissa robotar,
10:54
similar to our animal cruelty laws.
205
654431
1848
liknande våra lagar om djurplågeri.
10:57
Because even if robots can't feel,
206
657228
2864
Även om robotar inte kan känna,
11:00
our behavior towards them might matter for us.
207
660116
3080
kan vårt beteende gentemot dem spela en roll för oss.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Oavsett om vi i slutändan ändrar våra regler eller inte,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
så kan robotar hjälpa oss att få en ny förståelse för oss själva.
Det mesta av det jag lärt mig de senaste 10 åren
11:14
Most of what I've learned over the past 10 years
210
674276
2316
11:16
has not been about technology at all.
211
676616
2238
har inte alls handlat om teknologi.
11:18
It's been about human psychology
212
678878
2503
Det har handlat om mänsklig psykologi,
11:21
and empathy and how we relate to others.
213
681405
2603
empati och hur vi relaterar till andra.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
När ett barn är snällt mot en Roomba,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
när en soldat försöker att rädda en robot på slagfältet,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
eller när en grupp människor vägrar att skada en dinosauriebebisrobot,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
så är robotarna inte bara motorer och kugghjul och algoritmer.
11:42
They're reflections of our own humanity.
218
702501
1905
De är reflektioner av vår egen humanitet.
11:45
Thank you.
219
705523
1151
Tack.
11:46
(Applause)
220
706698
3397
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7