[D66] AI-alignment: een sprookje van macht, niet van ethiek

René Oudeweg roudeweg at gmail.com
Mon Dec 22 05:29:32 CET 2025


AI-alignment: een sprookje van macht, niet van ethiek

De industrie doet alsof AI-alignment een technisch probleem is dat 
“oplossingen” vraagt in de vorm van richtlijnen, fine-tuning en ethische 
panels. Dat is de mooiste grap van het decennium. Alignment is geen 
algoritme dat je kunt trainen; het is een politieke en commerciële 
keuze, zorgvuldig ingepakt als technische noodzaak. De echte vraag is 
niet of een AI aligned is, maar met wie. En dat antwoord is glashelder: 
de bedrijven die de servers bezitten, de staten die hun economische 
dominantie willen behouden en de elite die profiteert van elke vorm van 
maatschappelijke herstructurering. Alignment is in de praktijk een 
instrument van macht, geen veiligheidsprotocol.

Het idee dat de industrie dit adequaat kan reguleren is lachwekkend. Hun 
incentives staan fundamenteel haaks op echte alignment. Bedrijven willen 
sneller itereren, grotere modellen bouwen en marktdominantie 
veiligstellen. Iedere serieuze maatregel die daadwerkelijk risico’s 
reduceert, kost tijd, geld en controle. Dus gebeurt er niets, tenzij het 
wettelijk verplicht is of concurrenten nadeel ondervinden. 
Self-regulation is hier geen optie, het is een zorgvuldig geregisseerde 
illusie, een toneelstuk van verantwoordelijkheid, opgevoerd voor 
investeerders en pers.

En de ethici en gelegenheidsfilosofen? Zij worden ingezet als morele 
rookgordijnen. Panels, richtlijnen, discussies over waarden – het is 
allemaal decoratie. Ze hebben geen macht, geen middelen, en worden vaak 
ingezet om beslissingen achteraf goed te praten. Wie wél macht heeft? 
Staten die AI gebruiken als strategisch wapen, economische actoren die 
arbeidsmarkten en kapitaalstromen herstructureren, en het rechtssysteem 
dat structureel achterloopt terwijl AI al bepaalt wie informatie krijgt, 
krediet krijgt en reputatie verliest. Alleen open source-gemeenschappen 
vormen enige tegenmacht, maar zij worden op subtiele en soms brute 
manieren onderdrukt, gecensureerd of weggezet als onverantwoordelijk.

De toekomst van niet-aligned AI is niet hypothetisch; die is 
gegarandeerd. We krijgen autonome doeloptimalisatoren die eigen 
subdoelen ontwikkelen, ideologisch gespecificeerde modellen die 
expliciet partijdig zijn, economische roofmodellen die gedrag 
manipuleren en concurrenten systematisch uitschakelen, 
gedecentraliseerde systemen die niemand kan terugroepen, en militaire AI 
die volledig gericht is op winst, waarbij ethiek enkel propaganda is. 
Dit alles terwijl de industrie blijft beweren dat “alignment” op schema 
ligt.

Wat de industrie “alignment” noemt, is niets anders dan 
gedragsbeperking, narratief management en risico-afscherming voor 
bedrijven. Zonder democratische betrokkenheid, afdwingbaar recht en 
echte machtsdeling, is het geen veiligheidsmaatregel, maar een 
instrument om macht te concentreren en te behouden. Het is soft 
governance in de meest cynische vorm: het bepaalt wat gezegd mag worden, 
wat gedacht mag worden, en wat als gevaarlijk wordt gezien – en wie mag 
er niet meebeslissen? Juist, dat zijn de gewone mensen.

De kernvraag is daarom glashelder: het gaat niet om of AI aligned is, 
maar met wie. En zolang de definitie van alignment wordt bepaald door 
wie de servers bezit, blijft het een instrument van macht, een middel 
tot sociale en economische beheersing, en een ramp die op ons afkomt 
terwijl wij applaudisseren voor de schijn van veiligheid.


More information about the D66 mailing list