Surge la herramienta de ‘humanización’ de IA que aprovecha la propia guía de detección de Wikipedia

13

Un nuevo complemento de código abierto llamado “Humanizer” permite que modelos de IA como Claude de Anthropic eviten escribir como una IA. La herramienta funciona indicando al modelo que no utilice los mismos patrones que los editores de Wikipedia identificaron como signos reveladores de texto generado por IA. Esto es irónico, ya que el complemento se basa directamente en una lista compilada por humanos que intentan detectar contenido escrito por máquina.

El complemento, creado por el empresario tecnológico Siqi Chen, proporciona a Claude una lista seleccionada de 24 peculiaridades del lenguaje (frases demasiado formales, adjetivos excesivos y estructuras de oraciones repetitivas) que WikiProject AI Cleanup de Wikipedia marcó como comunes en la escritura de IA. Chen publicó la herramienta en GitHub, donde rápidamente ganó fuerza con más de 1.600 estrellas.

El contexto: por qué es importante
El auge de la escritura con IA ha llevado a un esfuerzo paralelo para detectarla. Los editores de Wikipedia comenzaron a identificar sistemáticamente artículos generados por IA a finales de 2023 y publicaron una lista formal de patrones en agosto de 2024. Ahora, esa misma lista se utiliza para evitar la detección. Esto pone de relieve el juego del gato y el ratón entre la generación de IA y las herramientas de detección. También subraya un problema clave: se puede incitar a la IA a imitar los estilos de escritura humanos, lo que hace que la detección confiable sea cada vez más difícil.

Cómo funciona Humanizer

La herramienta no es una solución mágica. Es un “archivo de habilidades” para Claude Code, el asistente de codificación de Anthropic. Esto significa que agrega instrucciones específicas formateadas de una manera que la IA está diseñada para interpretar con precisión. A diferencia de las indicaciones simples del sistema, los archivos de habilidades están estandarizados para una mejor ejecución. Sin embargo, los modelos de lenguaje no siempre son perfectos, por lo que Humanizer no garantiza resultados perfectos.

Las pruebas muestran que la herramienta hace que la salida de IA suene menos precisa y más informal, pero no mejora la factibilidad. En algunos casos, podría incluso perjudicar la capacidad de codificación. Una de las instrucciones, por ejemplo, le dice a la IA que “tenga opiniones” en lugar de simplemente informar hechos, una sugerencia contraproducente para la documentación técnica.

Cómo se ve la escritura con IA (según Wikipedia)

La guía de Wikipedia proporciona ejemplos concretos. La escritura de IA a menudo utiliza un lenguaje inflado: “marca un momento crucial” en lugar de “sucedió en 1989”. Favorece las descripciones de folletos turísticos (“vistas impresionantes”, “ubicado dentro de regiones pintorescas”). También agrega frases innecesarias como “simbolizar el compromiso de la región con la innovación”. La herramienta Humanizer intenta reemplazar estos patrones con hechos claros.

Por ejemplo, la IA reescribiría:

Antes: “El Instituto de Estadística de Cataluña se creó oficialmente en 1989, lo que marcó un momento crucial en la evolución de las estadísticas regionales en España”.

Después: “El Instituto de Estadística de Cataluña se creó en 1989 para recopilar y publicar estadísticas regionales”.

El problema con la detección de IA

Incluso con reglas detalladas, los detectores de escritura de IA no son confiables. No existe una forma infalible de distinguir el texto generado por humanos del generado por máquinas. Se puede incitar a los modelos de IA a evitar patrones específicos, como lo demuestra Humanizer. OpenAI, por ejemplo, luchó durante años para evitar que la IA usara el tablero em, un patrón que se evita fácilmente con las instrucciones correctas.

El problema subyacente es que la IA puede aprender a imitar los estilos de escritura humanos, lo que hace que la detección sea cada vez menos confiable.

La herramienta Humanizer es un síntoma de esta carrera armamentista: los métodos de detección crean nuevas vulnerabilidades que pueden explotarse para hacer que la escritura con IA sea más convincente. Es probable que esto continúe a medida que los modelos de IA se vuelvan más sofisticados.