Massachusetts: Morele robots

Zelfstandig denkende en handelende machines begeven zich steeds meer onder de mensen. De Roomba stofzuigt de vloer op eigen houtje en auto’s kunnen zich steeds meer zelf besturen. Dat is vaak fijn voor de gebruiker, want die hoeft minder tijd vrij te maken voor het huishouden en maakt minder snel een ongeluk in het verkeer.

Maar hoe meer autonomie een computer of robot krijgt, des te vaker hij te maken krijgt met ethische dilemma’s. Onderzoeker kunstmatige intelligentie Matthias Scheutz wijst ons daarom op het belang van een ethisch bewustzijn voor robots. In het Human-Robot-Interaction Laboratory van Tufts University in Massachusetts werkt hij aan het creëren van een morele gereedschapskist voor robots. 

Matthias Scheutz, Tufts University Massachusetts

zorgrobots

Voor gevechtsrobots bestaan al veel regels, maar ook in meer alledaagse situaties zijn die hard nodig, zegt Scheutz. Een plek waar robots aan terrein winnen is bijvoorbeeld de zorg, en dat is juist ook een plek waar gevoelige beslissingen worden genomen. Neem een verpleegrobot, die medicijnen uitdeelt maar niet zelf voorschrijft. De robot heeft twee instructies. De eerste instructie is te voorkomen dat de patiënt pijn heeft en de tweede instructie is dat hij alleen medicatie mag toedienen nadat hij via het internet toestemming heeft gekregen van de behandelend arts. Op een dag wordt de patiënt wakker met veel pijn en vraagt om extra pijnmedicatie; het is duidelijk dat de patiënt lijdt, maar het internet ligt eruit en de robot kan geen contact leggen met de arts. De robot komt voor een dilemma te staan: bij de opdracht blijven en geen medicijnen geven betekent dat de patiënt extra lijdt. Maar om zijn lijden te verzachten moet de robot deze instructie in de wind slaan en op eigen houtje medicijnen uitdelen. Volgens Scheutz is het in dit geval wenselijk dat de robot handelt zoals een verstandig mens zou doen: eerst alles op alles zetten om de supervisor te bereiken en, als dat wegens technische omstandigheden uiteindelijk niet lukt, toch de medicijnen geven. Het is belangrijk dat de robot zijn overweging in zo’n geval achteraf kan verantwoorden bij zijn supervisor.
 
Scheutz vindt dat er wetten en regels moeten komen waar robots zich aan kunnen houden. Daar moeten ze op hun beurt naar kunnen redeneren. In sommige situaties zal dat moeilijk blijken en soms zelfs onmogelijk: het leven is zo complex dat de ontwerper nooit alle omstandigheden kan voorzien waar de robot mee te maken kan krijgen. Daarbij verschillen de wetten per land of staat, dus kan robotsoftware niet zomaar worden doorverkocht aan de buren. 

menselijk moraal

Een ander probleem waar Scheutz zich over buigt, is de immorele opdrachtgever. Wat als de robot geprogrammeerd is om zich aan de wet te houden, maar zijn bestuurder andere plannen heeft? Om uit te zoeken of robots mensen terug op het rechte pad kunnen krijgen, voerde Scheutz een experiment uit. Deelnemers kijken toe hoe een robotje de laatste hand legt aan een toren van blikken, terwijl ze van een onderzoeker instructies krijgen: ze moeten de robot door simpele commando’s aansturen de blikkentorens om te gooien. De onderzoeker loopt even weg en intussen reageert de robot trots en verheugd omdat de toren af is. Op het moment dat de proefpersoon de robot instrueert de net gebouwde toren om te gooien, gehoorzaamt die niet gelijk. Eerst wijst hij zijn bestuurder erop hoeveel werk hij heeft gehad om de toren te bouwen. Krijgt de robot nogmaals het commando zijn toren om te gooien, dan reageert hij emotioneler. Pas na een paar keer volgt hij de instructie op, maar gepaard met een dramatische uiting van verdriet.
 
In het experiment wist de robot meerdere deelnemers te overtuigen. Zij gaven de robot gelijk en lieten de blikken toren staan. Ook gaven respondenten aan dat ze zich niet prettig voelden bij het omgooien van de toren, als ze dat wel gedaan hadden. Dit bleek samen te hangen met hun beeld van de robot: wanneer zij die irritant vonden, lieten ze hem juist met gemak zijn werk vernielen. Deelnemers die geloofden dat de robot autonoom handelde vonden het een vervelend idee om de toren om te gooien.
 
Overigens was de robot die Scheutz gebruikte, niet autonoom. Hij werd op afstand bestuurd, maar voor de deelnemers was daar (als het goed is) niets van te merken. Toch zitten dergelijke autonome robots er wel aan te komen. We zullen er goed over na moeten denken voor welke beslissingen een robot meer geschikt is en wanneer toch een mens moet inspringen.