Een nieuwe open-source plug-in genaamd “Humanizer” zorgt ervoor dat AI-modellen zoals Claude van Anthropic kunnen voorkomen dat ze als een AI schrijven. De tool werkt door het model te instrueren om niet de patronen te gebruiken die Wikipedia-editors hebben geïdentificeerd als veelbetekenende tekenen van door AI gegenereerde tekst. Dit is ironisch, omdat de plug-in rechtstreeks afhankelijk is van een lijst die is samengesteld door mensen die machinaal geschreven inhoud proberen te ontdekken.
De plug-in, gemaakt door tech-ondernemer Siqi Chen, geeft Claude een samengestelde lijst van 24 taalfouten – overdreven formele bewoordingen, buitensporige bijvoeglijke naamwoorden en repetitieve zinsstructuren – die Wikipedia’s WikiProject AI Cleanup heeft gemarkeerd als gebruikelijk bij het schrijven van AI. Chen publiceerde de tool op GitHub, waar deze snel terrein won met meer dan 1.600 sterren.
De context: waarom dit ertoe doet
De opkomst van AI-schrijven heeft geleid tot een parallelle poging om het te detecteren. Wikipedia-redacteuren begonnen eind 2023 systematisch door AI gegenereerde artikelen te identificeren en publiceerden in augustus 2024 een formele lijst met patronen. Nu wordt diezelfde lijst gebruikt om detectie te omzeilen. Dit benadrukt het kat-en-muisspel tussen AI-generatie en detectietools. Het onderstreept ook een belangrijk probleem: AI kan ertoe worden aangezet menselijke schrijfstijlen na te bootsen, waardoor betrouwbare detectie steeds moeilijker wordt.
Hoe Humanizer werkt
De tool is geen wondermiddel. Het is een ‘vaardigheidsbestand’ voor Claude Code, de codeerassistent van Anthropic. Dit betekent dat het specifieke instructies toevoegt die zo zijn opgemaakt dat de AI precies kan interpreteren. In tegenstelling tot eenvoudige systeemprompts zijn vaardigheidsbestanden gestandaardiseerd voor een betere uitvoering. Taalmodellen zijn echter niet altijd perfect, dus de Humanizer garandeert geen foutloze resultaten.
Uit tests blijkt dat de tool de AI-uitvoer minder nauwkeurig en nonchalanter doet klinken, maar de feitelijkheid er niet door verbetert. In sommige gevallen kan dit zelfs het codeervermogen schaden. Een van de instructies vertelt de AI bijvoorbeeld dat hij ‘een mening moet hebben’ in plaats van simpelweg feiten te rapporteren – een contraproductieve suggestie voor technische documentatie.
Hoe AI-schrijven eruit ziet (volgens Wikipedia)
De Wikipedia-gids geeft concrete voorbeelden. AI-schrijven gebruikt vaak opgeblazen taal: ‘een cruciaal moment markeren’ in plaats van ‘gebeurde in 1989’. Het geeft de voorkeur aan beschrijvingen van toerismebrochures (“adembenemende uitzichten”, “genesteld in schilderachtige regio’s”). Het voegt ook onnodige uitdrukkingen toe als ‘het symboliseren van de toewijding van de regio aan innovatie’. De Humanizer-tool probeert deze patronen te vervangen door duidelijke feiten.
De AI zou bijvoorbeeld herschrijven:
Voorheen: “Het Statistisch Instituut van Catalonië werd officieel opgericht in 1989 en markeerde een cruciaal moment in de evolutie van regionale statistieken in Spanje.”
Na: “Het Statistisch Instituut van Catalonië werd in 1989 opgericht om regionale statistieken te verzamelen en te publiceren.”
Het probleem met AI-detectie
Zelfs met gedetailleerde regels zijn AI-schrijfdetectoren onbetrouwbaar. Er bestaat geen onfeilbare manier om menselijke tekst te onderscheiden van door machines gegenereerde tekst. AI-modellen kunnen worden aangezet om specifieke patronen te vermijden, zoals de Humanizer laat zien. OpenAI worstelde bijvoorbeeld jarenlang om te voorkomen dat AI het em-dashboard zou gebruiken – een patroon dat gemakkelijk kan worden vermeden met de juiste instructies.
Het onderliggende probleem is dat AI menselijke schrijfstijlen kan leren nabootsen, waardoor detectie steeds onbetrouwbaarder wordt.
De Humanizer-tool is een symptoom van deze wapenwedloop: detectiemethoden creëren nieuwe kwetsbaarheden die kunnen worden uitgebuit om AI-schrijven overtuigender te maken. Dit zal waarschijnlijk zo blijven naarmate AI-modellen geavanceerder worden.


























