Argos

Hoe Rotterdam haar burgers op de digitale snijtafel legt

De gemeente Rotterdam kent bijna 30.000 mensen in de bijstand. Zo’n 1.000 daarvan worden elk jaar onderworpen aan een uitgebreide controle vanwege een verdenking van ‘onrechtmatigheden’. Bijvoorbeeld omdat ze een cadeau aannemen, een betaalde klus niet doorgegeven of een formulier verkeerd invullen.

Een productie van: Reinier Tromp

Maar de gemeente kan niet iedereen controleren. Dus moest ze keuzes maken: welke 1.000 mensen controleer je? En welke 29.000 laat je lopen? Een ‘slim’ algoritme hielp de gemeente daarbij. Tussen 2017 en 2021 werden duizenden Rotterdammers geanalyseerd door dit algoritme dat bijstandsgerechtigden een risico-score gaf met een inschatting hoe groot de kans is dat je met jouw achtergrond, eigenschappen en gedrag fraude zou plegen.

Eerder onthulden we in Argos dat in sommige Rotterdamse buurten vaker gecontroleerd werd dan anderen. Ook ontdekten we dat kenmerken zoals ‘taal’, ‘psychische problemen’ en ‘geslacht’ een rol speelden bij de selectie voor controle.

In deze uitzending gaan we een stap verder. Argos kreeg inzage in het volledige algoritme inclusief de trainingsdata. Voor het eerst in de geschiedenis leggen journalisten een fraude-algoritme in zijn geheel op de snijtafel.

In de studio reageert Amnesty International op de bevindingen.

Zaterdag 11 maart, 14 uur, NPO Radio 1

Abonneer je op Argos-podcast

De wekelijkse radio-uitzending van Argos is ook te beluisteren als podcast via ►Spotify ►ApplePodcasts ►Stitcher ►RSS-feed. Meer weten? Klik hier.

Lees hier de reactie van gemeente Rotterdam

reacties op de uitzending

Meerdere personen die wij hebben gesproken, die in de afgelopen jaren zijn onderzocht op mogelijke bijstandsfraude, vertellen dat zij vonden dat het heronderzoek opdringerig was, dat zij werden gestraft voor kleine overtredingen en dat het personeel dat hen onderzocht onbeschoft of onaardig was. Eén van de personen die wij spraken zegt dat er druk op hen werd uitgeoefend om hun bank-app te openen in het bijzijn van ambtenaren. Hoe reageert u op deze bevindingen en de manier waarop mensen werden behandeld?
Een heronderzoek is geen fraudeonderzoek. Het doel van een heronderzoek is om te controleren of de gegevens van een Rotterdammer met een bijstandsuitkering nog actueel zijn en de (hoogte van de) uitkering nog rechtmatig is. Wij snappen goed dat een heronderzoek spannend kan zijn. De ervaringen die u deelt zijn dan ook niet de bedoeling. Het is vervelend om te constateren dat de bejegening niet goed is geweest in deze gevallen. Wij besteden veel aandacht om heronderzoeken op een correcte manier en met oog voor de persoon uit te voeren.

Wij vragen van inwoners die uitgenodigd worden voor een heronderzoek om bankafschriften mee te nemen. Een bankafschrift toont namelijk alle inkomsten en uitgaven. Dit zijn vaak belangrijke indicatoren om verwijtbare en niet-verwijtbare onrechtmatigheden te ontdekken. Het is ook mogelijk om op een locatie van de gemeente de bankafschriften te printen. Het is niet de bedoeling dat mensen onder druk gezet worden.

Mensen die zijn onderzocht omdat ze door het Rotterdamse bijstandsalgoritme (welfare algorithm) als hoog-risico werden aangemerkt, zeggen dat het proces hen niet het gevoel geeft menselijk te zijn en dat ze zich daardoor slechts een ‘nummer’ voelen. Zij vinden niet dat een algoritme moet worden gebruikt om risicoscores te berekenen, omdat het onpersoonlijk is. Wat is hier uw reactie op? 
Bij het selecteren van mensen voor een heronderzoek is het onvermijdelijk dat het in eerste instantie een administratief proces is. Dat is hetzelfde bij een aselecte steekproef, waarmee we nu werken, en bij een selectie op basis van een algoritme, waarmee we destijds onder andere werkten.

Na de selectie wordt het gesprek, het heronderzoek, door een inkomensconsulent gevoerd. De inkomensconsulent ziet de persoon achter het cijfer, nodigt diegene uit voor een heronderzoek en stelt vast of er sprake is van rechtmatigheid. Voor de volledigheid: het risico-inschattingsmodel van toen nam geen besluiten over rechtmatigheid, dat deed de inkomensconsulent. Net als nu het geval is.

Mensen die door het algoritme zijn geselecteerd voor heronderzoek zeggen eveneens dat dit proces niet transparant is. Zij weten niet waarom zij geselecteerd zijn voor een mogelijk heronderzoek en dit wordt ook niet aan hen uitgelegd. Een advocaat die wij hebben gesproken, vertelde dat zij niet wist waarom haar cliënt werd aangemerkt als hoog-risico door het algoritme. Zijn er plannen om meer transparantie te bieden bij beslissingen die door algoritmen worden genomen?
Ja. De Auditdienst van de gemeente, Concern Auditing, heeft in februari 2021 een advies uitgebracht genaamd ‘Advies Analytics Uitkeringsonrechtmatigheid’. In dit rapport wordt geadviseerd aandacht te besteden aan de transparantie van het risico- inschattingsmodel. In de wethouderbrief ‘opvolgen aanbevelingen risico- inschattingsmodel’ wat in augustus 2021 naar de commissie WIOSSAN is gestuurd is hier een vervolg aan gegeven.

Zoals u weet zijn we in 2021 gestopt met het risico-inschattingsmodel. Inwoners worden nog uitsluitend geselecteerd met een aselecte methode. In ons proces richting de ontwikkeling van een nieuw model staan drie eisen centraal: een nieuw model mag geen schijn van vooringenomenheid hebben, moet maximaal transparant zijn en goed uitlegbaar zijn aan de buitenwereld. Dat betekent onder andere dat inwoners meer uitleg moeten krijgen over waarom en hoe zij zijn geselecteerd voor een heronderzoek.

De afgelopen jaren is het algemene bijstandsstelsel van Rotterdam gewijzigd om coulanter om te gaan met kleine overtredingen van de regels (zoals het ontvangen van geldelijke giften). Waarom zijn deze wijzigingen doorgevoerd?
Dit is een gevolg van maatschappelijke veranderingen, mede naar aanleiding van o.a. een rechtszaak over de ontvangst van boodschappen. Vanuit zowel het ministerie als gemeenten is er duidelijk meer aandacht voor de menselijke maat en ervaren hardheden in de participatiewet. In dat kader ontstond ook aandacht voor het beleid rondom het ontvangen van giften. Zowel in de landelijke- als gemeentelijke politiek ontstond de roep om standaard een bepaald bedrag aan ontvangen giften ongemoeid te laten, waarbij vaak een grensbedrag van € 1.200 werd genoemd. Bij deze discussie spelen de huidige inflatie en gestegen energielasten een grote rol. De gemeente Rotterdam heeft daarom besloten om tijdelijk een hoger grensbedrag te hanteren van € 2.250.

Overigens staat deze verandering niet op zichzelf, maar is onderdeel van een bij de gehele gemeente Rotterdam gevoelde noodzaak om de menselijke maat meer centraal te stellen in ons werk.

Is de stad nog steeds van plan het algoritme in te zetten? Het Algoritmeregister geeft aan dat het gebruik momenteel is gepauzeerd.
Het oude model wordt niet meer ingezet. Wij zijn aan het onderzoeken of er een nieuw model kan worden ontwikkeld dat aan alle eisen kan voldoen.

De Rekenkamer Rotterdam heeft zich kritisch uitgelaten over het gebruik van het bijstandsalgoritme. Volgens de Rekenkamer was er sprake van een gebrek aan verantwoordelijkheid en management tijdens de ontwikkeling van het algoritme en de Rekenkamer wijst op de risico's van bias en discriminatie. De Rekenkamer blijft het gebruik van algoritmen onderzoeken. Hoe is de Rotterdamse ontwikkeling van de technologie veranderd naar aanleiding van de kritiek van de Rekenkamer? 
Het risico-inschattingsmodel wordt niet meer ingezet. 

De Rekenkamer Rotterdam heeft geconcludeerd dat de governance beter ingericht moest worden. Dit is gebeurd. Verantwoordelijkheden zijn beter beschreven en er zijn meer waarborgen toegevoegd zoals het Algorithm Risk Assesment en De Impact Assesment Mensenrechten en Algoritmes (IAMA). Hiermee toetsten wij de ethische werking vooraf. 

Hoe is het 'machine learning model' veranderd sinds de betrokkenheid van Accenture bij het origineel in 2017/2018?
In 2018 heeft de gemeente Rotterdam de ontwikkeling van het model overgenomen. Het model is sindsdien aangepast. De relatieve belangrijkheid van features zijn veranderd. Ieder jaar werd de best passende techniek gekozen. Voor 2020 werd de techniek ‘Random Forrest’ gebruikt. In 2020 werd het risico-inschattingsmodel ontwikkeld met de techniek ‘Gradient Boosting’.

Wat is de huidige status van de ontwikkeling van het nieuwe "glassbox-model"?
Het oude model wordt niet meer ingezet. Wij zijn aan het onderzoeken of er een nieuw model kan worden ontwikkeld dat aan alle eisen, waaronder transparantie, kan voldoen. De gemeenteraad wordt voor de zomer geïnformeerd over de status van dit model.

sprekers

Tamilla Abdul-Aliyeva

Beleidsadviseur Amnesty International

Cynthia Liem

Universiteit hoofddocent Informatica, TU Delft

Gabriel Geiger

Onderzoeksjournalist Lighthouse Reports

Pepita Ceelie

Werd door het algoritme geselecteerd

achtergrond

Fraude-algoritme op de snijtafel

De gemeente Rotterdam richtte haar pijlen bij het opsporen van bijstandsfraude voornamelijk op jonge moeders en mensen die het Nederlands niet goed machtig zijn. Deze mensen werden strenger gecontroleerd door de gemeente. Dit blijkt uit onderzoek van Argos, Lighthouse Reports, Vers Beton en Follow The Money die voor het eerst een ‘slim’ fraude-algoritme in zijn geheel onder de loep namen.

Toch geen fraudeur

Je komt bij het loket om bijstand aan te vragen en nadat je de nodige vragen hebt beantwoord, zegt de gemeenteambtenaar: u ziet er best aardig uit, maar we verdenken u van fraude. Twee uur later staat de sociale recherche in je huis en trekt alle laden en kastjes open.

Achter de voordeur met de fraudevoorspellingen van de overheid

Je woont in een buurt met problemen en een team fraudecontroleurs van de overheid komt onaangekondigd aan de deur, want je bent geselecteerd voor een huisbezoek. Ze vertellen je niet dat je in beeld bent gekomen omdat uit de data blijkt dat je sinds een tijdje een alleenstaande moeder bent, je woning behoorlijk groot is voor iemand met een bijstandsuitkering en iemand een melding over je heeft gedaan.