AI-Toezicht als Nieuwe Priesterschap
De waarschuwing van de Autoriteit Persoonsgegevens (AP) over het falende toezicht op algoritmes in Nederland klinkt als een technisch signaal – "code rood" voor AI-regulering. Maar wie iets dieper kijkt, ziet vooral een machtsverschuiving die we al eeuwen kennen: een kleine groep die toegang heeft tot een onbegrijpelijke taal en daardoor de sleutel in handen krijgt tot het lot van de rest. Vroeger heette dat een priesterkaste rond het altaar. Vandaag gaat het om datawetenschappers, compliance-afdelingen en toezichthouders rond de servers.
De metafoor van "AI-toezicht als nieuw priesterschap", die AP en verschillende media de voorbije week gebruiken, is geen gratuite beeldspraak. Ze raakt aan de kern van wat er op het spel staat: wie legt in de 21ste eeuw uit wat onze nieuwe, onzichtbare machten precies met ons doen – en wie mag ze nog tegenspreken?
Feiten: wat zegt de AP?
Volgens berichtgeving op onder meer Tweakers waarschuwt de AP al jaren dat het gebruik van algoritmes door overheid en bedrijven grotendeels buiten zicht gebeurt, en dat het toezicht daar nauwelijks tegenop gewassen is. De toezichthouder spreekt in dit recente interview van een situatie "code rood" en van toezichthouders die met "een houten zwaard" vechten tegen grote technologische spelers.
Een aantal concrete punten uit die berichtgeving en de AP-signalen:
- Veel overheidsinstanties en bedrijven registreren hun algoritmes niet of nauwelijks, waardoor zelfs de toezichthouder vaak niet weet welke systemen waar worden ingezet (bijvoorbeeld voor kredietscoring, zorgtoewijzing of fraudedetectie).
- De technische complexiteit van moderne AI – zeker bij lerende en zelfoptimaliserende systemen – maakt het voor klassieke juristen en handhavers moeilijk om te beoordelen hoe beslissingen tot stand komen.
- De kloof tussen technologische innovatie en de bescherming van grondrechten groeit; burgers merken pas dat er iets misloopt wanneer ze al zijn vastgelopen in systemen, zoals pijnlijk duidelijk werd in de Toeslagenaffaire.
Feit is ook dat de toekomstige Europese AI-verordening (AI Act) weliswaar strengere verplichtingen oplegt voor risicovolle AI-systemen, maar dat wetgeving alleen niet volstaat. Zonder middelen, expertise en transparantie-instrumenten blijft het toezicht grotendeels symbolisch.
De zwarte doos als nieuw heiligdom
In de publieke discussie draait veel rond de zogenaamde "black box": AI-modellen die beslissingen nemen over hypotheken, uitkeringen, zorg en opsporing, zonder dat zelfs ontwikkelaars altijd precies kunnen uitleggen waarom het systeem tot die uitkomst kwam. Als burger zie je enkel het eindresultaat: aanvraag geweigerd, profiel 'hoog risico', dossier gemarkeerd.
In religieuze taal: je krijgt een orakel, geen uitleg.
De parallel met de middeleeuwse kerk is verleidelijk. Toen was het Latijn de taal van de liturgie, het recht en de theologie. De meeste gelovigen konden het niet lezen; ze waren afhankelijk van priesters om de "wil van God" te interpreteren. Vandaag is het niet langer het Latijn, maar de taal van statistiek, machine learning en code die voor de meeste burgers ontoegankelijk is. De nieuwe tempelmuren zijn datacenters en gesloten broncode.
In mijn eigen werk beschrijf ik hoe moderne samenlevingen keer op keer nieuwe vormen van onzichtbare macht creëren: systemen die zich presenteren als neutraal en rationeel, maar in werkelijkheid rusten op ideologieën als biologisch determinisme, sociaal darwinisme en neoliberale marktlogica. Die ideologieën vormen samen een soort verborgen architectuur van instellingen, juist zo krachtig omdat ze doorgaans onzichtbaar en vanzelfsprekend blijven .
Wat we nu rondom AI zien, past precies in dat patroon. Algoritmes worden gepresenteerd als objectiever en efficiënter dan mensen. Wie bezwaar maakt, krijgt vaak te horen dat "het nu eenmaal de data zijn" of "het model het zo berekend heeft". Alsof uitkomsten een natuurwet zijn, in plaats van het resultaat van menselijke keuzes: welke data we verzamelen, wat we meten, welke doelen we optimaliseren.
Van goddelijke wil naar systeemlogica
De trilogie Tronen van het onzichtbare volgt hoe sacraal gezag in de loop van de geschiedenis van gedaante verandert. De oude goden verdwijnen niet; ze verhuizen naar nieuwe troonkamers: de natiestaat, de markt, de wetenschap, en nu de data-infrastructuren. Elke keer verschuift ook de plaats waar zin, waarheid en rechtvaardiging vandaan komen.
In onderwijsbeleid, waaruit ik eerder voorbeelden analyseerde, zie je hoe een ideologie van meritocratie en 'overleven van de sterkste' langzaam de rol van een quasi-natuurlijke orde is gaan spelen. Wat in eerste instantie werd voorgesteld als een eerlijk systeem – gestandaardiseerde testen, vroege selectie, competitie tussen scholen – bleek in de praktijk een onzichtbare motor te zijn van segregatie en ongelijkheid . Het onderwijs werd zo een mechanisme dat bestaande maatschappelijke verhoudingen bestendigt, terwijl het zichzelf presenteert als neutraal en objectief.
Iets gelijkaardigs dreigt bij AI-besluitvorming. Systemen voor risicoscoring of selectie leren uit historische data – waarin bestaande vooroordelen en structurele ongelijkheden zijn ingebakken – en zetten die om in schijnbaar objectieve scores. Wanneer een algoritme een wijk of bevolkingsgroep vaker als risicovol markeert, wordt het verschil al snel gezien als "feit" in plaats van als echo van oude machtsverhoudingen.
De Toeslagenaffaire was precies zo'n botsing tussen systeemlogica en menselijke maat. Een geautomatiseerd systeem dat fraude moest opsporen, versterkte bestaande vooroordelen, met dramatische gevolgen voor duizenden gezinnen. Formeel gezien was er geen "kwaadwillende god" aan het werk; praktisch gezien leek het voor slachtoffers wél alsof een onzichtbare macht, zonder gezicht of aanspreekpunt, over hun leven heerste.
Het nieuwe priesterschap: wie mag de code lezen?
De metafoor van het "AI-priesterschap" is op twee manieren verhelderend.
Ten eerste maakt ze zichtbaar dat toegang tot interpretatie macht is. Wie de modellen kan bouwen, testen en duiden, krijgt de positie van bemiddelaar tussen burgers en de systemen die over hen beslissen. Dat geldt voor techbedrijven, maar óók voor toezichthouders en onafhankelijke experts.
Ten tweede legt ze een democratisch probleem bloot: zolang de logica van algoritmes alleen begrijpelijk is voor ingewijden, moet de rest van de samenleving hen per definitie vertrouwen. Dat schuurt met het ideaal van de rechtsstaat, waarin macht gecontroleerd, betwist en uiteindelijk gecorrigeerd moet kunnen worden.
In mijn werk rond onzichtbare macht stel ik dat geen enkel systeem – religieus, economisch, bureaucratisch of technologisch – het lang volhoudt als pure black box. Op een bepaald moment eisen burgers uitleg, participatie en verantwoording. Pas wanneer we de onderliggende aannames en structuren expliciet benoemen, ontstaat ruimte voor echte hervorming .
Bij AI-toezicht zitten we precies op dat breekpunt. De AP stelt vast dat toezichthouders momenteel niet alleen te weinig tanden hebben, maar ook te weinig zicht op wat er überhaupt gebeurt. Als zelfs de "hogepriesters van het toezicht" niet weten waar welke algoritmes draaien, is de afstand tot de gewone burger compleet geworden.
Een houten zwaard tegen onzichtbare tronen
De beeldspraak van het "houten zwaard" vat een breder probleem samen: de asymmetrie tussen de middelen van grote technologiebedrijven en overheidsinstanties enerzijds, en de capaciteit van toezichthouders anderzijds.
Vanuit feitenperspectief gaat het om:
- Tekort aan gespecialiseerde technische profielen bij toezichthouders, waardoor de analyse van complexe AI-systemen vaak wordt uitbesteed of vertraagd.
- Onvoldoende wettelijke plichten voor organisaties om hun algoritmes systematisch te registreren en te documenteren. Zonder transparantie over waar welke systemen draaien, kunnen toezichthouders enkel reactief optreden.
- Grote afhankelijkheid van leveranciers: overheden kopen vaak 'turnkey'-oplossingen in, waarvan de broncode gesloten blijft en auditmogelijkheden beperkt zijn.
Vanuit analyseperspectief rijst dan een ongemakkelijke vraag: creëren we met de huidige aanpak niet twee lagen priesterschap bovenop elkaar? Eerst de ontwikkelaars die weten hoe de modellen werken, daarboven een kleine laag toezichthoudende experts die – als ze voldoende toegang krijgen – de code kunnen interpreteren, en daaronder een grote laag burgers en frontlijnmedewerkers die simpelweg moeten geloven wat er uit het systeem rolt.
Als we dat model ongemoeid laten, wordt het moeilijk nog geloofwaardig te spreken over democratische besluitvorming of rechtsbescherming. Dan verschuift de kern van het recht – hoor en wederhoor, toetsing door een onafhankelijke instantie, begrijpelijke motivering – naar een abstracte laag van technologische waarheidsproductie.
Wat we kunnen leren uit andere onzichtbare systemen
De lessen uit andere beleidsterreinen, zoals het onderwijs, zijn instructief. Daar zagen we hoe zogenaamd neutrale instrumenten – tests, ranglijsten, vroege selectie – in de praktijk vooral de positie van wie al sterk stond, verstevigden. Achteraf bleek dat het systeem gebouwd was op impliciete aannames over aangeboren talent en economische productiviteit, meer dan op een reëel geloof in ontwikkelbaarheid en gelijke kansen .
Een vergelijkbare dynamiek dreigt bij AI:
- Als we AI primair inzetten om efficiëntie te maximaliseren (fraude sneller opsporen, kosten reduceren, risico's verkleinen), ligt het voor de hand dat kwetsbare groepen disproportioneel in het vizier komen.
- Als we beslissystemen ontwerpen op basis van historische data, importeren we automatisch de vooroordelen en blinde vlekken van het verleden.
- Als we uitkomsten presenteren als 'objectief', wordt het moeilijker om te erkennen dat er structurele ongelijkheid en machtsasymmetrie in die systemen besloten ligt.
Het is precies deze combinatie – schijnbare neutraliteit, technische complexiteit en grote impact op levens – die van AI een kandidaat maakt voor een nieuw "onzichtbaar altaar". Niet omdat er een bewuste samenzwering is, maar omdat we te weinig oog hebben voor hoe macht zich verplaatst naar systemen en modellen.
Hoe voorkomen we een gesloten priesterschap?
De vraag is niet of we experts nodig hebben – dat hebben we onvermijdelijk. De vraag is hoe we vermijden dat hun kennis zich ontwikkelt tot een gesloten priesterkaste.
Enkele voorwaarden die uit zowel de actuele discussie als uit eerdere analyses van onzichtbare machtsstructuren naar voren komen:
1. Transparantie als basisvoorwaarde, niet als luxe
Een publieke en verplichte registratie van alle algoritmes die in de publieke sector en in vitale private domeinen worden gebruikt (financiën, zorg, werk, huisvesting), is cruciaal. Niet in de vorm van technische dumps, maar als begrijpelijke fiches: doel, gebruikte data, risico's, contactpunt. Zolang zelfs toezichthouders klagen dat ze niet weten wat er draait, is elk gesprek over "vertrouwen in AI" voorbarig.
2. Verteerbare uitleg voor burgers
De plicht om beslissingen die door of met hulp van AI tot stand komen, in begrijpelijke taal te motiveren, is een logisch uitvloeisel van het recht op een eerlijk proces. Geen wiskundige bewijzen, wel heldere antwoorden op vragen als: Welke factoren telden mee? Waar kan ik foutieve informatie laten corrigeren? Wie is uiteindelijk verantwoordelijk?
3. Echte tegenspraak organiseren
Als de geschiedenis iets leert, is het dat onzichtbare tronen pas wankelen wanneer mensen geïnformeerd en georganiseerd tegenspraak bieden. Voor AI betekent dat: mechanismen voor collectieve klachten, onafhankelijke audits door derden, en inspraak van burgers en maatschappelijke organisaties bij de inrichting van hoog-risico-systemen.
4. Toezicht als publieke infrastructuur
Toezichthouders hebben niet alleen meer geld en mensen nodig, maar vooral interdisciplinair vermogen: juristen, datawetenschappers, ethici, ervaringsdeskundigen. In mijn eerdere werk bepleit ik dat we systemen die diep ingrijpen op levens – onderwijs, sociale zekerheid, nu ook AI-infrastructuren – moeten behandelen als publieke infrastructuur, niet als marktoplossing . Dat vraagt om structurele investeringen in plaats van projectmatige noodgrepen.
5. Brede digitale geletterdheid
Als burgers geen enkele taal spreken van de systemen die hen sturen, ontstaat afhankelijkheid. Basale kennis over hoe algoritmes werken, wat data-profielen zijn en welke rechten je hebt, hoort thuis in onderwijs en publieke informatiecampagnes. Dat is geen luxe, maar een voorwaarde voor een volwassen democratische cultuur.
Tussen vertrouwen en onttovering
De metafoor van het priesterschap draagt ook een risico in zich: ze kan fatalistisch werken. Alsof we onvermijdelijk zijn overgeleverd aan een nieuwe, ondoorgrondelijke macht, of de technologische variant van "zo is het nu eenmaal".
In Tronen van het onzichtbare volg ik hoe samenlevingen periodes van sacralisering en onttovering afwisselen. Steeds weer ontstaan systemen die meer macht claimen dan ze zouden moeten hebben – religieuze instituten, markten, bureaucratieën, nu misschien datascapes – en steeds weer zijn er burgers, bewegingen en denkers die die pretentie doorprikken en de mechanismen erachter zichtbaar maken.
AI en het toezicht daarop bevinden zich nog in een vroeg stadium van dat proces. De waarschuwing van de AP – "code rood" – kan gelezen worden als een technocratische mededeling over capaciteitstekorten. Maar ze is, wanneer je ze in een historisch licht plaatst, vooral een uitnodiging: om niet opnieuw toe te laten dat we een cruciaal domein van besluitvorming uitbesteden aan een gesloten kring van ingewijden, hoe welwillend die ook mogen zijn.
Of AI-toezicht daadwerkelijk uitgroeit tot een nieuw priesterschap, hangt niet af van de technologie zelf, maar van de institutionele keuzes die we de komende jaren maken. Transparantie, verantwoording en burgerlijke tegenspraak zijn daarbij geen romantische idealen, maar nuchtere randvoorwaarden om te voorkomen dat de rechtsstaat oplost in code waar geen mens meer tussenkomt.
Bron:
– "AP blijft roepende in de woestijn over gevaren van AI-algoritmes", Tweakers.net, 8 maart 2026 (https://tweakers.net/nieuws/230114/ap-blijft-roepende-in-de-woestijn-over-gevaren-van-ai-algoritmes.html)
– Tronen van het onzichtbare (trilogie, eigen werk/manuscript)
Comments ()