
Onderzoekers van de UU en FTM waarschuwen voor GeoMatch: een COA-algoritme dat statushouders koppelt aan gemeenten. Het systeem zou discrimineren op afkomst en geslacht. Critici eisen een stop van het experiment wegens gebrek aan transparantie en risico op ongelijkheid.
Het Centraal Orgaan opvang asielzoekers (COA) test een algoritme dat automatisch bepaalt in welke gemeente een statushouder gaat wonen. GeoMatch belooft de vluchtelingen te koppelen aan de plaats waar zij de grootste kans op werk hebben. Onderzoekers van de Universiteit Utrecht en Follow the Money waarschuwen dat dat niet gebeurt. “In plaats van een win-winsituatie verliest iedereen”, zegt promovendus Kinan Alajak. “De statushouder, de gemeente én de gemeenschap.”
GeoMatch zoekt niet de beste woonplaats voor een statushouder, zeggen de onderzoekers. Het kijkt naar welke vluchteling het meest ‘past’ bij een plek. “Als een andere statushouder ook maar de kans heeft ergens iets meer te verdienen, wordt diegene aan die regio gekoppeld”, legt Alajak uit. Hij doet aan de Universiteit Utrecht (UU) en Hogeschool Utrecht promotieonderzoek naar technologie en beleid. “Daardoor worden kansarme mensen uiteindelijk gekoppeld aan plaatsen waar hun kansen sowieso al laag zijn.”

“Het algoritme vergroot de ongelijkheid tussen statushouders en die tussen gemeenten”, zegt ook Koen Leurs, specialist op het gebied van migratie en digitalisering aan de UU. Alajak: “Wanneer statushouders worden gekoppeld aan gemeenten waar zij minder kans op werk hebben, raakt dat iedereen. Niet alleen de migrant, maar ook de gemeente en daarmee de hele gemeenschap.”
Alajak en Leurs werkten samen met econoom Merve Burnazoglu, mediawetenschapper Gerwin van Schie (beiden UU), en onderzoeksjournalisten David Davidson en Evaline Schot. Ze analyseerden vertrouwelijke documenten van het COA, zoals rapportages en risicoanalyses rondom gegevensbescherming en kunstmatige intelligentie (AI) van onafhankelijke organisaties. Zo legden ze bloot hoe het algoritme beslissingen neemt en wat de gevolgen zijn.
In de documenten kwamen de onderzoekers ernstige zorgen over het systeem tegen. In een van de rapportages stond bijvoorbeeld: “Een deel van de variabelen zegt onmiskenbaar iets over de etniciteit van de betrokkenen. Dit leidt tot hoog risico op discriminatie.” Toch ging de proef met GeoMatch van start.
Iemands opleiding en werkervaring tellen nauwelijks mee – of je Syrisch, Somalisch of Koerdisch bent wél.
Kinan Alajak en dr. Koen Leurs
De al vroeg geuite zorgen blijken terecht. “Het algoritme gebruikt zogenaamde ‘bijzondere persoonsgegevens’, zoals afkomst en nationaliteit, om vaardigheden en baankansen in te schatten”, leggen Leurs en Alajak uit. “In de beslissingen van het systeem tellen iemands opleiding en werkervaring nauwelijks mee, terwijl of je Syrisch, Somalisch of Koerdisch bent wél verschil maakt.”
“GeoMatch houdt ook weinig rekening met vrouwen. In een gezin kijkt het systeem vooral naar de persoon met de meeste kans op werk. Door de gekleurde data waarmee het algoritme is getraind is dat volgens GeoMatch meestal de man.”

Hoe GeoMatch precies werkt weet niemand van de betrokkenen. “Statushouders weten niet waarom ze ergens worden geplaatst en werknemers van het COA krijgen geen inzicht in de afwegingen van het systeem”, zeggen Alajak en Leurs. “De ruimte voor menselijke controle verdwijnt volledig. En dat terwijl de beslissingen van GeoMatch grote gevolgen hebben: ze bepalen waar iemand een nieuw leven moet opbouwen.”
Ondanks alle zorgen en kritiek wil het COA het systeem op grote schaal gebruiken. “GeoMatch koppelt straks per jaar mogelijk duizenden mensen aan gemeenten”, zeggen Leurs en Alajak. De wetenschappers roepen het COA en de overheid op om te stoppen met het experimenteren met algoritmen bij kwetsbare groepen. “In ieder geval tot de systemen transparant zijn, gecontroleerd kunnen worden en totdat de rechten van mensen worden beschermd.”