Rotterdam gebruikt een algoritme om bijstandsfraude te voorspellen en kende jarenlang risicoscores toe op basis van bijvoorbeeld geslacht, woonwijk, taal en zelfs indicaties van psychische en financiële problemen. Hoewel er volgens de gemeente geen sprake is van oververtegenwoordiging van mannen, vrouwen of bepaalde wijken, blijkt uit cijfers dat daar nog wel vragen over zijn te stellen.

De Rekenkamer Rotterdam waarschuwde dit jaar dat het algoritme waarmee de gemeente Rotterdam bijstandsfraudeurs opspoort, mogelijk oneerlijk is. Met ethische risico’s was bij de ontwikkeling nauwelijks rekening gehouden en voor burgers was het niet mogelijk om te achterhalen hoe het algoritme werkte en of het een rol had gespeeld bij hun onderzoek naar de rechtmatigheid van een bijstandsuitkering. Ook was er volgens de rekenkamer kans op vooringenomenheid doordat bijvoorbeeld iemands Nederlandse taalvaardigheid meetelde in zijn of haar risicoscore.

Het algoritme berekent de risicoscore door de gegevens van bijstandsfraudeurs uit het verleden te vergelijken met de gegevens van mensen met een lopende bijstandsuitkering. Hoe meer iemands profiel op dat van een fraudeur lijkt, hoe hoe hoger de score. De bijstandsontvangers met de hoogste risicoscores krijgen een hercontrole. Dat is geen formaliteit: binnen twee weken nadat een bijstandsgerechtigde is uitgenodigd moet hij of zij alle papieren laten zien, zoals huurcontracten en rekeningafschriften.

Download de documenten

Argos en het platform voor journalistieke samenwerking Lighthouse Reports vroegen de gemeente met een Wob-verzoek om documenten over de werking van het algoritme. Rotterdam heeft de computercode van het systeem overhandigd en gedetailleerde documenten over de gebruikte indicatoren. Voor zover bekend is de gemeente de eerste grote overheid die deze mate van transparantie biedt over de werking van een fraude-algoritme. Organisaties als de Belastingdienst en het UWV houden deze algoritmes geheim omdat ze zeggen te vrezen dat burgers hun gedrag gaan aanpassen om aan controle te ontkomen. De documenten zijn hier te downloaden.▼ 

Taal, wijk en psychische problemen

Uit informatie die aan de gemeenteraad is verstrekt en documenten die de gemeente heeft vrijgegeven na een Wob-verzoek van Argos en Lighthouse Reports blijkt dat het algoritme tot dit jaar meer dan driehonderd variabelen meewoog voor de risicoscore. Het gaat om gegevens die de gemeente registreert in het kader van de bijstand. De belangrijkste was leeftijd. In de top-100 van indicatoren in 2020 die het sterkst voorspellen of iemand fraudeert staan verder indicatoren als geslacht (vrouw), de buurt Groot-IJsselmonde en de wijk Feijenoord, iemands spreektaal, of iemand heeft moeten voldoen aan een taaleis en of er belemmeringen zijn geweest in het participatietraject door financiële, psychische of lichamelijke problemen. Ook de samenlevingsvorm van een bijstandsgerechtigde, het aantal kinderen en het leeftijdsverschil tussen ouder en het oudste kind tellen zwaar mee voor de risicoscore. Dat geldt eveneens voor de aard en het verloop van de contacten met de gemeente. Zo weegt mee of er contact is geweest per e-mail of per telefoon en zelfs het aantal woorden dat is genoteerd bij een afspraak.

Aanpassingen

De gemeente Rotterdam heeft na de aanbevelingen van de rekenkamer en debatten in de gemeenteraad aanpassingen gedaan. Niet alleen is er openheid gekomen over de werking, er is inmiddels ook een flink aantal variabelen uit het algoritme gehaald. Voorbeelden zijn indicatoren over taal, geslacht, medische en psychische klachten. Maar de wijk waar iemand woont, weegt nog steeds mee. De gemeente zelf stelt dat geen sprake is geweest van discriminatie of oververtegenwoordiging van bepaalde groepen.

Meer vrouwen dan mannen

In hoeverre het algoritme tot oneerlijke resultaten heeft geleid is niet eenvoudig onafhankelijk vast te stellen. Daarvoor is uitgebreid statistisch onderzoek nodig. De gemeente heeft wel cijfers verstrekt die iets kunnen zeggen over mogelijke over- of onder vertegenwoordiging van bepaalde wijken en mannen of vrouwen. Daaruit blijkt dat in de periode 2018-2020 933 mannen werden gecontroleerd nadat zij door het algoritme waren aangewezen, tegenover liefst 2.179 vrouwen. De gemeente verklaart dit als volgt: ‘In het verleden zijn in de heronderzoeken op basis van thema’s (dus niet op basis van het risico-inschattingsmodel) juist relatief veel mannen onderzocht. Het gevolg daarvan is dat de reeds onderzochte mannelijke uitkeringsgerechtigden worden uitgefilterd uit de selectie die op basis van het risico-inschattingsmodel wordt gemaakt.’   

Wijken

Voor de wijken geldt dat het aantal controles op basis van het algoritme in de periode 2018-2020 flink uiteenloopt. Volgens de gemeente heeft dit ‘te maken heeft met verscheidene factoren die meespelen. De belangrijkste factor is dat in sommige wijken relatief meer uitkeringsgerechtigden woonachtig zijn.’

Datajournalist Reinier Tromp van Argos heeft ter controle het jaarlijkse aantal hercontroles per wijk op basis van het algoritme afgezet tegen het totaal aantal bijstandsuitkeringen per wijk. Het blijkt dat in sommige wijken meer of juist minder controles zijn geweest, dan je op basis van het totaal aantal bijstandsuitkeringen zou verwachten. Zo is in IJsselmonde en Hoogvliet het aantal controles relatief hoog. In Rotterdam Centrum is het juist laag.

Argos heeft ook gevraagd naar cijfers over tweede nationaliteit of geboorteland, maar dit is volgens de gemeente niet bijgehouden.