De conclusies van de Inspectie Justitie en Veiligheid liegen er niet om. Algoritmes die de reclassering jarenlang heeft gebruikt om het risico te berekenen dat iemand opnieuw een strafbaar feit pleegt zitten vol met fouten. Jessica Westerik, directeur bij Reclassering Nederland, reageert in Nieuwsuur op het vernietigende rapport.
Ze noemt de conclusies “heel confronterend” en zegt dat de reclassering “een inhaalslag” heeft te maken als het gaat om het correct gebruik van algoritmes.
“We trekken ons dit heel erg aan en ik wil hier dan ook verantwoordelijkheid voor nemen”, zegt de directeur. “Ik zou ook geen knip voor de neus waard zijn als ik dat niet zou doen. Bij de reclassering proberen we mensen dagelijks te leren dat je verantwoordelijkheid moet nemen voor je fouten en die moet proberen te herstellen.”
Zo’n 48.000 keer per jaar adviseert de reclassering rechters over het risico dat iemand opnieuw de fout in gaat, het zogeheten recidiverisico. Het kan gaan om een verdachte die terechtstaat of een gevangene die bijna vrijkomt. Dit advies weegt zwaar en kan het verschil betekenen tussen vrijlaten of vastzetten.
Verouderde data uit Zweden
Uit het rapport van de inspectie blijkt dat de rekenmodellen die de reclassering hierbij gebruikte er in ongeveer één op de vijf gevallen naast zaten. Eén van die algoritmes, genaamd Oxrec, voldoet op bijna geen enkel vlak aan de normen voor overheidsalgoritmes, concludeert de inspectie. In het algoritme waren cruciale formules verwisseld, drugsproblematiek zat niet goed in het model en ernstige psychische aandoeningen werden niet meegenomen.
Bovendien draaide het model op verouderde data van Zweedse gedetineerden. “Het is maar zeer de vraag of een dataset die voorspellingen doet voor de Zweedse populatie ook op Nederland kan worden toegepast”, zegt Cynthia Liem, universitair hoofddocent aan de TU Delft en gespecialiseerd in het verantwoord gebruik van AI en algoritmes.
Liem noemt het “gênant” dat het model nooit correct is toegepast en dat daar in de afgelopen jaren ook nooit controle op is geweest. Ze wijt dit onder meer aan het sterke vertrouwen dat organisaties vaak stellen in computermodellen. “Het wordt ons door AI en algoritmes heel aantrekkelijk gemaakt om minder na te denken, minder te bevragen en gewoon te accepteren wat ons wordt geboden. Dit zie je in heel veel technologische toepassingen gebeuren.”
De reclassering heeft het gebruik van de modellen inmiddels gepauzeerd en een programma opgezet waarbij het gebruik van deze zogenoemde risicotaxatie-instrumenten onder de loep wordt genomen.
Volgens de inspectie werd bij het grootste deel van de fouten het risico op recidive te laag ingeschat. Een mogelijk gevolg is dat de samenleving onvoldoende wordt beschermd. Bij een te hoge inschatting kan dat nadelig uitpakken voor de verdachte of veroordeelde, bijvoorbeeld omdat die dan een hogere straf krijgt.
Op de vraag of mensen mogelijk te vroeg zijn vrijgelaten of zwaarder zijn gestraft door een foute inschatting, antwoordt directeur Westerik dat ze dat niet kan uitsluiten. “Maar ik acht de kans heel erg klein.”
Discriminatie
“Dit is een van de pijnlijkste rapporten die we in de afgelopen jaren onder ogen hebben gekregen”, zegt Sven Stevenson van de Autoriteit Persoonsgegevens. “Als burger moet je erop kunnen vertrouwen dat zo’n algoritme eerlijk is en niet discrimineert. Beide zijn bij meerdere van deze algoritmes niet in orde.”
Extra pijnlijk is dat de reclassering in 2020 al werd gewaarschuwd voor discriminerende elementen in het Oxrec-algoritme. In dat model werden namelijk de kenmerken postcode en inkomen meegewogen, en dat kan indirect leiden tot etnisch profileren. Westerik zegt dat de reclassering dit signaal destijds “heel serieus” heeft genomen. “Maar op dat moment leek er voldoende wetenschappelijk bewijs te zijn dat buurt en inkomen opzichzelfstaande factoren waren.”
Maar een jaar later zei ook het College voor de Rechten van de Mens dat het verboden is om deze kenmerken mee te wegen zonder dat goed te onderbouwen. En die onderbouwing ontbrak. “Dat hebben wij onvoldoende gedaan, dat klopt”, zegt Westerik.
De directeur erkent dat er binnen haar organisatie onvoldoende kennis was over algoritmes en het onderhouden daarvan. “Dat moeten we verbeteren en dat gaan we ook doen. Maar ik wil ook benadrukken dat reclassering mensenwerk is. In al ons trainingsmateriaal staat dat het professionele oordeel van onze medewerkers leidend is.”
