Wetenschap
De robots geven niks om ons
Er is te weinig debat over de ethische implicaties van sociale robots, vindt de Catalaanse hoogleraar Carme Torras. ‘We zijn strenger voor technologie dan voor onszelf.’
donderdag 6 december 2018

Volgend jaar is ‘ie te koop: de vierpotige SpotMini-robot  van Boston Dynamics. In het promotiefilmpje ruimt hij een leeg blikje op, en het lege glas dat ernaast staat gaat in de vaatwasser. Als het baasje op de bank een boek leest, komt Spot een blikje drinken brengen, maar hij houdt het speels iets te lang vast met de grijparm die tevens zijn hoofd is.

In onze fabrieken en warenhuizen doen robots al meerdere decennia hun werk. De SpotMini is juist een voorbeeld van de nu opkomende klasse van sociale robots: ontworpen om in de menselijke omgeving te functioneren.

Prof. dr. Carme Torras Genís van het Institut de Robòtica i Informàtica Industrial telt alle robots die daarvoor gemaakt zijn als ‘sociaal.’ SpotMini dus, de patiëntrobot die op een vijfjarig jongetje lijkt die geneeskundestudenten moet helpen opleiden, de robots die autistische kinderen helpen socialer te worden. Maar ook de autonome stofzuigers die de laatste jaren steeds beter en goedkoper zijn geworden, en haar eigen Clothilde-project, waarin een grote robot-arm leert omgaan met kleding.

Het is nog maar de vraag hoe praktisch het nou precies is om eerst met een robot-arm te gaan slepen voordat hij een taakje kan doen, maar de manier waarop het ding leert is ronduit geweldig. Je programmeert hem door de arm eerst zelf te bewegen. Eén arm kan een sjaal om doen, twee armen kunnen een shirt opvouwen of kleding opruimen. ‘Als je duidelijk maakt wat het einddoel is, wordt hij daarna steeds beter in zijn taakje’, aldus Torras.

Lovelace

Dat kan zo’n arm natuurlijk niet zomaar, en de publicatielijst van Torras staat dan ook vol van termen als ‘dimensie-reductie in Gaussiaanse meng-modellen’ en ‘modaliteits-selectie-algoritmes’, maar dat is niet zozeer waar ze vrijdag over kwam praten bij de Ada Lovelace-lezing, de halfjaarlijkse lezingen van het informatica-instituut LIACS. Die ging vooral over iets nog veel ingewikkelders: ethiek.

Allereerst is er natuurlijk veiligheid. Haar robot-arm bevat een heel scala aan trucs om te voorkomen dat ‘ie iemand wurgt of pijn doet. ‘Alles dat interacteert met mensen moet enorm veilig zijn. Robots en autonome auto’s staan heel dicht bij mensen, dus daar stellen we nog eens extra hoge eisen aan. Als een Tesla een ongeluk krijgt, is dat nieuws, zelfs als dat veel minder vaak gebeurt dan bij menselijke bestuurders. We zijn strenger voor onze technologie dan voor onszelf.’

De hoogleraar maakt zich dan ook meer zorgen over de gevolgen voor ons gevoelsleven.

‘Die robothond die een biertje komt brengen en hem dan even vasthoudt, roept gevoelens op. Daar is op zich niets mis mee, zolang er geen sprake is van bedrog. Jij weet dat het een machine is, met een programmering. Een kind, daarentegen, kent de wereld nog niet goed genoeg om een robot de juiste mentale plek te geven. Hetzelfde geldt voor dementerende ouderen: er is een element van bedrog.’

Intimiteit

Torras: ‘Als een kind vooral of zelfs alleen opgroeit in het gezelschap van machines, en vooral als die eruit zien als een tekenfilmfiguurtje, komt het iets tekort. Een kind moet niet denken dat een machine echt om ze geeft, en onduidelijkheid daarover kan ze belemmeren bij het ontwikkelen van empathie. Een robot kan geen echte intimiteit geven. Ook kan hij ervoor zorgen dat de ouders het kind gaan verwaarlozen.’

Ze laat een foto zien van een peuter, die een Wakamaru omhelst, de knalgele huisrobot die Mishubishi elf jaar geleden op de markt bracht. ‘In de folder die erbij hoorde, vertelde een moeder enthousiast hoe ze geen verhaaltjes meer voor hoefde te lezen voor het slapen gaan. “Zij vindt het leuker als de robot dat doet, en ik kan gewoon doorwerken. Met behulp van de camera’s in de robot kan ik mijn dochter in de gaten houden.”’

Wakamaru is inmiddels niet meer te koop, maar aan toekomstige robo-nannies zal hetzelfde bezwaar kleven.

Nog zo eentje: wat als de oppasrobot ook bijles kan geven, en daar ook echt goed in is? Dan krijg je een groeiende digital gap, waarin rijke mensen hun voorsprong op arme mensen steeds verder kunnen vergroten. Anti-autisme-bots? Is autisme een aandoening die behandeld moet worden, of een uiting van de neurologische diversiteit die Homo sapiens kan hebben? Wat als iemand een anti-homoseksualiteitbot bouwt?

Dildo

Is een realistisch ogende seksrobot gewoon een heel geavanceerde dildo? Wat als we hem eruit laten zien als een jongetje van acht? Of, voorbeeld van Torras: een huilende en om genade smekende zwarte robot, te verkopen aan racisten die hem kunnen martelen en in elkaar slaan? ‘Dit is niet mijn eigen onderwerp, maar ook dit zijn kwesties waarvoor we als samenleving regels moeten vaststellen.’ Je kan het een normalisering van abject gedrag vinden, of misdaden zonder slachtoffer en een onschuldige uitlaatklep, maar het kan geen kwaad om het daar eens over te hebben met zijn allen.

Juist dat is steeds moeilijker geworden, verzucht Torras. ‘Emotionele afstomping is een ding. Privacy is een ding. De robot in je huis kent straks al je geheimen. Dankzij technologie veranderen we de menselijke aard: het is een experiment op wereldschaal, met onszelf als proefkonijnen van de grote technologiebedrijven.’

Nu heeft technologie altijd al de mensheid veranderd, van het vuur tot de drukpers tot de anticonceptiepil.

‘Maar als samenleving hadden we tijd om te besluiten hoe we die technologie vorm gaven. Nu is elke technologie meteen wereldwijd beschikbaar, en dat ontneemt ons de tijd om erop te reflecteren. Voordat de pil op de markt kwam, was er een hoop debat over de implicaties daarvan. Een app is binnen een paar seconden binnen op je telefoon, en als je hem niet hebt, loop je achter. We leven in moeilijke tijden, vooral voor jongeren. Je verliest bedenktijd.’

De sentimentele mutatie

‘Ethiek en techniek gaan moeilijk samen. De meeste ethisch-filosofische teksten zijn niet geschikt om aan te bieden aan ingenieurs in opleiding. Het mengen van de geesteswetenschappen en de bèta/techniekwereld gaat ook moeilijk: in Spanje moet je daar eigenlijk twee opleidingen voor volgen. Het wordt wel steeds beter: eerder dit jaar was er in Madrid een congres over Robotics meet the humanities, waar ook juristen en filosofen spraken en in debat gingen. We moeten mensen er op wijzen dat deze problemen bestaan. Ethici worden nog te vaak gezien als een hinderlijke bagage, de taak van de mensen die niet goed genoeg konden programmeren om het echte werk te doen. 

Om het ethiek-onderwijs in de technologie te helpen, gebruiken sommige docenten sciencefiction. Schrijvers als Asimov en Bradbury kaartten bijvoorbeeld de problemen met robot-nannies al aan, decennia voordat die echt op zouden komen. Zelf heb ik La mutació sentimental geschreven, een dystopisch werk over een meisje uit onze tijd dat wakker wordt in een toekomst waarin iedereens emotionele groei is achtergebleven door de omgang met robots. Het is dit jaar in het Engels uitgegeven als The Vestigial Heart, inclusief handleiding voor het ethiekonderwijs. Of iedereen zou moeten schrijven? Voor mij is het in elk geval heel goed geweest om te doen. Het helpt je nadenken over waar we heen gaan, en of we ons onderzoek misschien in een betere richting kunnen bijsturen.’