Plug-in sumber terbuka baru yang disebut “Humanizer” memungkinkan model AI seperti Claude dari Anthropic menghindari penulisan seperti AI. Alat ini bekerja dengan menginstruksikan model untuk tidak menggunakan pola yang diidentifikasi oleh editor Wikipedia sebagai tanda teks yang dihasilkan AI. Ini ironis, karena plugin tersebut secara langsung bergantung pada daftar yang disusun oleh manusia yang mencoba menemukan konten yang ditulis mesin.
Plug-in ini, yang dibuat oleh pengusaha teknologi Siqi Chen, memberi Claude daftar 24 kebiasaan bahasa yang telah dikuratori – ungkapan yang terlalu formal, kata sifat yang berlebihan, dan struktur kalimat yang berulang – yang ditandai oleh WikiProject AI Cleanup di Wikipedia sebagai hal yang umum dalam penulisan AI. Chen menerbitkan alat tersebut di GitHub, dan dengan cepat mendapatkan daya tarik dengan lebih dari 1.600 bintang.
Konteks: Mengapa Ini Penting
Munculnya penulisan AI telah mendorong upaya paralel untuk mendeteksinya. Editor Wikipedia mulai secara sistematis mengidentifikasi artikel yang dihasilkan AI pada akhir tahun 2023, dan menerbitkan daftar pola formal pada bulan Agustus 2024. Kini, daftar tersebut digunakan untuk menghindari deteksi. Hal ini menyoroti permainan kucing-dan-tikus antara generasi AI dan alat pendeteksi. Hal ini juga menggarisbawahi masalah utama: AI dapat diminta untuk meniru gaya penulisan manusia, sehingga membuat deteksi yang andal semakin sulit dilakukan.
Cara Kerja Humanizer
Alat ini bukanlah peluru ajaib. Ini adalah “file keterampilan” untuk Claude Code, asisten pengkodean Anthropic. Artinya, ia menambahkan instruksi spesifik yang diformat sedemikian rupa sehingga AI dirancang untuk menafsirkannya secara tepat. Tidak seperti perintah sistem yang sederhana, file keterampilan distandarisasi untuk eksekusi yang lebih baik. Namun, model bahasa tidak selalu sempurna, sehingga Humanizer tidak menjamin hasil yang sempurna.
Pengujian menunjukkan bahwa alat ini membuat keluaran AI terdengar kurang presisi dan lebih kasual, namun tidak meningkatkan faktualitas. Dalam beberapa kasus, hal ini bahkan dapat membahayakan kemampuan coding. Salah satu instruksi, misalnya, memberitahu AI untuk “memiliki opini” daripada sekadar melaporkan fakta – sebuah saran yang kontraproduktif untuk dokumentasi teknis.
Seperti Apa Penulisan AI (Menurut Wikipedia)
Panduan Wikipedia memberikan contoh nyata. Penulisan AI sering kali menggunakan bahasa yang berlebihan: “menandai momen penting” alih-alih “terjadi pada tahun 1989”. Ini lebih menyukai deskripsi brosur pariwisata (“pemandangan menakjubkan,” “terletak di kawasan yang indah”). Perjanjian ini juga menambahkan frasa yang tidak perlu seperti “melambangkan komitmen kawasan terhadap inovasi.” Alat Humanizer berupaya mengganti pola-pola ini dengan fakta yang jelas.
Misalnya, AI akan menulis ulang:
Sebelum: “Institut Statistik Catalonia secara resmi didirikan pada tahun 1989, menandai momen penting dalam evolusi statistik regional di Spanyol.”
Setelah: “Institut Statistik Catalonia didirikan pada tahun 1989 untuk mengumpulkan dan mempublikasikan statistik regional.”
Masalah Dengan Deteksi AI
Bahkan dengan aturan yang terperinci, pendeteksi penulisan AI tidak dapat diandalkan. Tidak ada cara yang sangat mudah untuk membedakan teks buatan manusia dan teks buatan mesin. Model AI dapat diminta untuk menghindari pola tertentu, seperti yang ditunjukkan oleh Humanizer. OpenAI, misalnya, berjuang selama bertahun-tahun untuk mencegah AI menggunakan em dash – sebuah pola yang mudah dihindari dengan instruksi yang tepat.
Masalah mendasarnya adalah AI dapat belajar meniru gaya penulisan manusia, sehingga deteksi semakin tidak dapat diandalkan.
Alat Humanizer adalah salah satu gejala perlombaan senjata ini: metode deteksi menciptakan kerentanan baru yang dapat dieksploitasi untuk membuat penulisan AI lebih meyakinkan. Hal ini kemungkinan akan terus berlanjut seiring dengan semakin canggihnya model AI.


























