Um novo plug-in de código aberto chamado “Humanizer” permite que modelos de IA como Claude da Anthropic evitem escrever como uma IA. A ferramenta funciona instruindo o modelo a não usar os mesmos padrões que os editores da Wikipedia identificaram como sinais reveladores de texto gerado por IA. Isso é irônico, já que o plug-in depende diretamente de uma lista compilada por humanos que tentam localizar conteúdo escrito por máquina.
O plug-in, criado pelo empresário de tecnologia Siqi Chen, alimenta Claude com uma lista selecionada de 24 peculiaridades linguísticas – frases excessivamente formais, adjetivos excessivos e estruturas de frases repetitivas – que o WikiProject AI Cleanup da Wikipedia sinalizou como comuns na escrita de IA. Chen publicou a ferramenta no GitHub, onde rapidamente ganhou força com mais de 1.600 estrelas.
O contexto: por que isso é importante
A ascensão da escrita de IA levou a um esforço paralelo para detectá-la. Os editores da Wikipedia começaram a identificar sistematicamente artigos gerados por IA no final de 2023, publicando uma lista formal de padrões em agosto de 2024. Agora, essa mesma lista está sendo usada para contornar a detecção. Isso destaca o jogo de gato e rato entre as ferramentas de geração e detecção de IA. Também destaca um problema importante: a IA pode ser solicitada a imitar estilos de escrita humanos, tornando a detecção confiável cada vez mais difícil.
Como funciona o humanizador
A ferramenta não é uma solução mágica. É um “arquivo de habilidade” de Claude Code, assistente de codificação da Anthropic. Isso significa que ele adiciona instruções específicas formatadas de uma forma que a IA foi projetada para interpretar com precisão. Ao contrário dos prompts simples do sistema, os arquivos de habilidades são padronizados para melhor execução. No entanto, os modelos de linguagem nem sempre são perfeitos, por isso o Humanizer não garante resultados perfeitos.
Os testes mostram que a ferramenta faz com que a saída da IA pareça menos precisa e mais casual, mas não melhora a factualidade. Em alguns casos, pode até prejudicar a capacidade de codificação. Uma das instruções, por exemplo, diz à IA para “ter opiniões” em vez de simplesmente relatar factos – uma sugestão contraproducente para documentação técnica.
Como é a escrita de IA (de acordo com a Wikipedia)
O guia da Wikipedia fornece exemplos concretos. A escrita de IA geralmente usa uma linguagem inflada: “marcando um momento crucial” em vez de “aconteceu em 1989”. Favorece descrições de brochuras turísticas (“vistas deslumbrantes”, “instalado em regiões cênicas”). Também acrescenta frases desnecessárias como “simbolizar o compromisso da região com a inovação”. A ferramenta Humanizer tenta substituir esses padrões por fatos simples.
Por exemplo, a IA reescreveria:
Antes: “O Instituto de Estatística da Catalunha foi oficialmente criado em 1989, marcando um momento crucial na evolução das estatísticas regionais em Espanha.”
Depois: “O Instituto de Estatística da Catalunha foi criado em 1989 para coletar e publicar estatísticas regionais.”
O problema com detecção de IA
Mesmo com regras detalhadas, os detectores de escrita de IA não são confiáveis. Não há uma maneira infalível de distinguir texto humano de texto gerado por máquina. Os modelos de IA podem ser solicitados a evitar padrões específicos, como demonstra o Humanizer. A OpenAI, por exemplo, lutou durante anos para impedir que a IA usasse o travessão – um padrão facilmente evitado com as instruções corretas.
A questão subjacente é que a IA pode aprender a imitar os estilos de escrita humanos, tornando a detecção cada vez menos confiável.
A ferramenta Humanizer é um sintoma desta corrida armamentista: métodos de detecção criam novas vulnerabilidades que podem ser exploradas para tornar a escrita de IA mais convincente. Isto provavelmente continuará à medida que os modelos de IA se tornarem mais sofisticados.


























