[D66] AI-alignment: een sprookje van macht, niet van ethiek
René Oudeweg
roudeweg at gmail.com
Mon Dec 22 05:29:32 CET 2025
AI-alignment: een sprookje van macht, niet van ethiek
De industrie doet alsof AI-alignment een technisch probleem is dat
“oplossingen” vraagt in de vorm van richtlijnen, fine-tuning en ethische
panels. Dat is de mooiste grap van het decennium. Alignment is geen
algoritme dat je kunt trainen; het is een politieke en commerciële
keuze, zorgvuldig ingepakt als technische noodzaak. De echte vraag is
niet of een AI aligned is, maar met wie. En dat antwoord is glashelder:
de bedrijven die de servers bezitten, de staten die hun economische
dominantie willen behouden en de elite die profiteert van elke vorm van
maatschappelijke herstructurering. Alignment is in de praktijk een
instrument van macht, geen veiligheidsprotocol.
Het idee dat de industrie dit adequaat kan reguleren is lachwekkend. Hun
incentives staan fundamenteel haaks op echte alignment. Bedrijven willen
sneller itereren, grotere modellen bouwen en marktdominantie
veiligstellen. Iedere serieuze maatregel die daadwerkelijk risico’s
reduceert, kost tijd, geld en controle. Dus gebeurt er niets, tenzij het
wettelijk verplicht is of concurrenten nadeel ondervinden.
Self-regulation is hier geen optie, het is een zorgvuldig geregisseerde
illusie, een toneelstuk van verantwoordelijkheid, opgevoerd voor
investeerders en pers.
En de ethici en gelegenheidsfilosofen? Zij worden ingezet als morele
rookgordijnen. Panels, richtlijnen, discussies over waarden – het is
allemaal decoratie. Ze hebben geen macht, geen middelen, en worden vaak
ingezet om beslissingen achteraf goed te praten. Wie wél macht heeft?
Staten die AI gebruiken als strategisch wapen, economische actoren die
arbeidsmarkten en kapitaalstromen herstructureren, en het rechtssysteem
dat structureel achterloopt terwijl AI al bepaalt wie informatie krijgt,
krediet krijgt en reputatie verliest. Alleen open source-gemeenschappen
vormen enige tegenmacht, maar zij worden op subtiele en soms brute
manieren onderdrukt, gecensureerd of weggezet als onverantwoordelijk.
De toekomst van niet-aligned AI is niet hypothetisch; die is
gegarandeerd. We krijgen autonome doeloptimalisatoren die eigen
subdoelen ontwikkelen, ideologisch gespecificeerde modellen die
expliciet partijdig zijn, economische roofmodellen die gedrag
manipuleren en concurrenten systematisch uitschakelen,
gedecentraliseerde systemen die niemand kan terugroepen, en militaire AI
die volledig gericht is op winst, waarbij ethiek enkel propaganda is.
Dit alles terwijl de industrie blijft beweren dat “alignment” op schema
ligt.
Wat de industrie “alignment” noemt, is niets anders dan
gedragsbeperking, narratief management en risico-afscherming voor
bedrijven. Zonder democratische betrokkenheid, afdwingbaar recht en
echte machtsdeling, is het geen veiligheidsmaatregel, maar een
instrument om macht te concentreren en te behouden. Het is soft
governance in de meest cynische vorm: het bepaalt wat gezegd mag worden,
wat gedacht mag worden, en wat als gevaarlijk wordt gezien – en wie mag
er niet meebeslissen? Juist, dat zijn de gewone mensen.
De kernvraag is daarom glashelder: het gaat niet om of AI aligned is,
maar met wie. En zolang de definitie van alignment wordt bepaald door
wie de servers bezit, blijft het een instrument van macht, een middel
tot sociale en economische beheersing, en een ramp die op ons afkomt
terwijl wij applaudisseren voor de schijn van veiligheid.
More information about the D66
mailing list