KI-Tool zur „Humanisierung“ entsteht, das Wikipedias eigenen Erkennungsleitfaden nutzt

10

Ein neues Open-Source-Plug-in namens „Humanizer“ ermöglicht es KI-Modellen wie Claude von Anthropic, nicht wie eine KI zu schreiben. Das Tool weist das Modell an, genau die Muster, die Wikipedia-Redakteure als verräterische Anzeichen für KI-generierten Text identifiziert haben, nicht zu verwenden. Das ist ironisch, da das Plug-in direkt auf einer Liste basiert, die von Menschen zusammengestellt wurde, die versuchen, maschinell geschriebene Inhalte zu erkennen.

Das vom Tech-Unternehmer Siqi Chen entwickelte Plug-in versorgt Claude mit einer kuratierten Liste von 24 sprachlichen Besonderheiten – übermäßig formale Formulierungen, übermäßige Adjektive und sich wiederholende Satzstrukturen –, die Wikipedias WikiProject AI Cleanup als häufig beim KI-Schreiben gekennzeichnet hat. Chen veröffentlichte das Tool auf GitHub, wo es mit über 1.600 Sternen schnell Anklang fand.

Der Kontext: Warum das wichtig ist
Der Aufstieg des KI-Schreibens hat zu parallelen Bemühungen geführt, es zu erkennen. Wikipedia-Redakteure begannen Ende 2023 mit der systematischen Identifizierung von KI-generierten Artikeln und veröffentlichten im August 2024 eine formelle Liste von Mustern. Jetzt wird genau diese Liste verwendet, um die Erkennung zu umgehen. Dies unterstreicht das Katz-und-Maus-Spiel zwischen KI-Erzeugungs- und Erkennungstools. Es verdeutlicht auch ein zentrales Problem: KI kann dazu veranlasst werden, menschliche Schreibstile nachzuahmen, was eine zuverlässige Erkennung immer schwieriger macht.

Wie Humanizer funktioniert

Das Tool ist kein Wundermittel. Es handelt sich um eine „Skill-Datei“ für Claude Code, den Codierungsassistenten von Anthropic. Dies bedeutet, dass spezifische Anweisungen hinzugefügt werden, die so formatiert sind, dass die KI sie präzise interpretieren kann. Im Gegensatz zu einfachen Systemaufforderungen sind Skilldateien zur besseren Ausführung standardisiert. Da Sprachmodelle jedoch nicht immer perfekt sind, kann der Humanizer keine einwandfreien Ergebnisse garantieren.

Tests zeigen, dass das Tool dazu führt, dass die KI-Ausgabe weniger präzise und lässiger klingt, die Sachlichkeit jedoch nicht verbessert wird. In einigen Fällen könnte es sogar die Programmierfähigkeit beeinträchtigen. Eine der Anweisungen fordert die KI beispielsweise auf, „Meinungen zu haben“ und nicht nur Fakten zu melden – ein kontraproduktiver Vorschlag für die technische Dokumentation.

Wie KI-Schreiben aussieht (laut Wikipedia)

Der Wikipedia-Ratgeber liefert konkrete Beispiele. KI-Schreiben verwendet oft eine überhöhte Sprache: „Markiert einen entscheidenden Moment“ statt „geschah im Jahr 1989“. Bevorzugt werden Beschreibungen in Tourismusbroschüren („atemberaubende Ausblicke“, „eingebettet in malerische Regionen“). Außerdem werden unnötige Formulierungen wie „Symbol für das Engagement der Region für Innovation“ hinzugefügt. Das Humanizer-Tool versucht, diese Muster durch klare Fakten zu ersetzen.

Die KI würde zum Beispiel Folgendes umschreiben:

Vorher: „Das Statistische Institut Kataloniens wurde 1989 offiziell gegründet und markierte einen entscheidenden Moment in der Entwicklung der Regionalstatistik in Spanien.“

Nachher: „Das Statistische Institut Kataloniens wurde 1989 gegründet, um regionale Statistiken zu sammeln und zu veröffentlichen.“

Das Problem mit der KI-Erkennung

Selbst mit detaillierten Regeln sind KI-Schreibdetektoren unzuverlässig. Es gibt keine narrensichere Möglichkeit, menschlichen von maschinengeneriertem Text zu unterscheiden. KI-Modelle können dazu veranlasst werden, bestimmte Muster zu vermeiden, wie der Humanizer zeigt. OpenAI beispielsweise kämpfte jahrelang darum, die KI daran zu hindern, den Gedankenstrich zu verwenden – ein Muster, das mit den richtigen Anweisungen leicht zu vermeiden ist.

Das zugrunde liegende Problem besteht darin, dass KI lernen kann, menschliche Schreibstile nachzuahmen, wodurch die Erkennung immer unzuverlässiger wird.

Das Humanizer-Tool ist ein Symptom dieses Wettrüstens: Erkennungsmethoden schaffen neue Schwachstellen, die ausgenutzt werden können, um KI-Schreiben überzeugender zu machen. Dies wird sich wahrscheinlich fortsetzen, da die KI-Modelle immer ausgefeilter werden.