Karyawan Google Menuntut Batasan Penggunaan AI Militer, yang Mencerminkan Kebuntuan Antropis

2

Ketegangan yang meningkat antara Pentagon dan pengembang AI semakin meningkat, dengan para pekerja Google kini ikut menyerukan batasan etika yang ketat tentang bagaimana kecerdasan buatan digunakan dalam aplikasi militer. Lebih dari 100 karyawan Google yang bekerja pada teknologi AI telah mengirimkan surat kepada pimpinan perusahaan, menyuarakan keprihatinan yang sebelumnya disuarakan oleh Anthropic dan menuntut agar Google menetapkan “garis merah” yang jelas dalam kontrak pemerintahnya.

Tekanan Meningkat pada Perusahaan Teknologi

Perselisihan ini berpusat pada desakan Departemen Pertahanan AS terhadap akses tidak terbatas terhadap model-model AI, termasuk AI Gemini milik Anthropic dan Google, untuk tujuan yang dapat mencakup pengawasan massal terhadap warga negara dan penerapan sistem senjata yang sepenuhnya otonom. Anthropic telah menolak tuntutan ini, mencari jaminan bahwa teknologinya tidak akan digunakan untuk aplikasi yang tidak etis atau berbahaya. Perlawanan ini kini memicu perdebatan internal serupa di raksasa teknologi lainnya.

Surat karyawan Google, yang ditujukan kepada kepala ilmuwan Jeff Dean, secara khusus meminta perusahaan tersebut mencegah militer menggunakan Gemini AI untuk pengawasan domestik atau dalam sistem senjata yang beroperasi tanpa pengawasan manusia. Mereka menyatakan keinginannya untuk “bangga dengan pekerjaan kami,” dan menyatakan bahwa partisipasi dalam proyek semacam itu akan merusak moral dan etika.

Kekhawatiran Industri yang Lebih Luas

Ini bukanlah insiden yang terisolasi. Hampir 50 karyawan OpenAI, bersama 175 rekan Google, secara terbuka mengkritik taktik negosiasi Pentagon, mendesak para pemimpin industri untuk bersatu dan menolak tuntutan saat ini. Departemen Pertahanan saat ini memegang kontrak senilai $200 juta dengan Anthropic, yang memanfaatkan pengaruh besarnya terhadap lanskap AI.

Masalah intinya adalah apakah perusahaan swasta harus memprioritaskan keuntungan dari kontrak pemerintah dibandingkan pertimbangan etis ketika berhadapan dengan teknologi yang berpotensi berbahaya. Jika Pentagon berhasil mengamankan akses yang tidak dibatasi, hal ini dapat menjadi preseden berbahaya, dengan menormalisasi penggunaan AI untuk pengawasan yang tidak terkendali dan peperangan otonom.

Situasi ini menimbulkan pertanyaan mendasar: Dapatkah pengembangan AI diselaraskan dengan tata kelola yang bertanggung jawab dan hak asasi manusia? Jawabannya akan bergantung pada apakah perusahaan teknologi memilih untuk memprioritaskan batasan etika dibandingkan keuntungan finansial jangka pendek.

Kebuntuan ini kemungkinan akan terus berlanjut, sehingga berpotensi membentuk kembali hubungan antara militer dan industri AI, sehingga memaksa adanya perhitungan yang lebih luas mengenai implikasi etis dari teknologi canggih.