Un nouveau plug-in open source appelé “Humanizer” permet aux modèles d’IA comme Claude d’Anthropic d’éviter d’écrire comme une IA. L’outil fonctionne en demandant au modèle de ne pas utiliser les modèles mêmes que les éditeurs de Wikipédia ont identifiés comme des signes révélateurs du texte généré par l’IA. C’est ironique, car le plug-in s’appuie directement sur une liste compilée par des humains essayant de repérer le contenu écrit par machine.
Le plug-in, créé par l’entrepreneur technologique Siqi Chen, fournit à Claude une liste organisée de 24 bizarreries linguistiques – formulations trop formelles, adjectifs excessifs et structures de phrases répétitives – que le WikiProject AI Cleanup de Wikipédia a signalées comme courantes dans l’écriture de l’IA. Chen a publié l’outil sur GitHub, où il a rapidement gagné du terrain avec plus de 1 600 étoiles.
Le contexte : pourquoi c’est important
L’essor de l’écriture IA a conduit à un effort parallèle pour la détecter. Les éditeurs de Wikipédia ont commencé à identifier systématiquement les articles générés par l’IA fin 2023, publiant une liste formelle de modèles en août 2024. Aujourd’hui, cette même liste est utilisée pour contourner la détection. Cela met en évidence le jeu du chat et de la souris entre les outils de génération d’IA et de détection. Cela souligne également un problème clé : l’IA peut être amenée à imiter les styles d’écriture humains, ce qui rend une détection fiable de plus en plus difficile.
Comment fonctionne l’humaniseur
L’outil n’est pas une solution miracle. Il s’agit d’une « fiche de compétences » pour Claude Code, l’assistant de codage d’Anthropic. Cela signifie qu’il ajoute des instructions spécifiques formatées de manière à ce que l’IA soit conçue pour interpréter avec précision. Contrairement aux simples invites système, les fichiers de compétences sont standardisés pour une meilleure exécution. Cependant, les modèles linguistiques ne sont pas toujours parfaits et Humanizer ne garantit donc pas des résultats impeccables.
Les tests montrent que l’outil rend le son de l’IA moins précis et plus décontracté, mais il n’améliore pas la réalité. Dans certains cas, cela pourrait même nuire à la capacité de codage. L’une des instructions, par exemple, dit à l’IA d’« avoir des opinions » plutôt que de simplement rapporter des faits – une suggestion contre-productive pour la documentation technique.
À quoi ressemble l’écriture d’IA (selon Wikipédia)
Le guide Wikipédia fournit des exemples concrets. Les écrits sur l’IA utilisent souvent un langage gonflé : « marquant un moment charnière » au lieu de « s’est produit en 1989 ». Il privilégie les descriptions des brochures touristiques (« vues à couper le souffle », « niché dans des régions pittoresques »). Il ajoute également des expressions inutiles telles que « symboliser l’engagement de la région en faveur de l’innovation ». L’outil Humanizer tente de remplacer ces modèles par des faits simples.
Par exemple, l’IA réécrirait :
Avant : “L’Institut statistique de Catalogne a été officiellement créé en 1989, marquant un moment charnière dans l’évolution des statistiques régionales en Espagne.”
Après : “L’Institut statistique de Catalogne a été créé en 1989 pour collecter et publier des statistiques régionales.”
Le problème avec la détection de l’IA
Même avec des règles détaillées, les détecteurs d’écriture AI ne sont pas fiables. Il n’existe aucun moyen infaillible de distinguer le texte généré par l’homme du texte généré par la machine. Les modèles d’IA peuvent être invités à éviter des modèles spécifiques, comme le démontre l’Humanizer. OpenAI, par exemple, a lutté pendant des années pour empêcher l’IA d’utiliser le tiret em – un modèle facilement évité avec les bonnes instructions.
Le problème sous-jacent est que l’IA peut apprendre à imiter les styles d’écriture humains, ce qui rend la détection de moins en moins fiable.
L’outil Humanizer est un symptôme de cette course aux armements : les méthodes de détection créent de nouvelles vulnérabilités qui peuvent être exploitées pour rendre l’écriture IA plus convaincante. Cela va probablement se poursuivre à mesure que les modèles d’IA deviennent plus sophistiqués.


























