INPS Japan
HomeLanguageIndonesianRobot Pembunuh: Mengerikannya Kebangkitan Perang Algoritmik

Robot Pembunuh: Mengerikannya Kebangkitan Perang Algoritmik

Oleh Inés M. Pousadela

MONTEVIDEO, Uruguay (IPS) — Mesin tanpa nurani kini membuat keputusan dalam hitungan detik tentang siapa yang hidup dan siapa yang mati. Ini bukan fiksi distopia; inilah realitas hari ini. Di Gaza, algoritme telah menghasilkan daftar target pembunuhan hingga 37.000 sasaran.

Senjata otonom juga dikerahkan di Ukraina dan dipamerkan dalam parade militer baru-baru ini di Tiongkok. Negara-negara berlomba-lomba mengintegrasikannya ke dalam persenjataan mereka, dengan keyakinan bahwa mereka akan tetap mampu mengendalikannya. Jika keyakinan itu keliru, konsekuensinya bisa bersifat katastrofik.|JAPANESEENGLISH

Berbeda dengan drone yang dikendalikan dari jarak jauh, di mana manusia menarik pelatuk, senjata otonom membuat keputusan mematikan sendiri. Setelah diaktifkan, sistem ini memproses data sensor—pengenalan wajah, tanda panas, pola pergerakan—untuk mengidentifikasi profil target yang telah diprogram sebelumnya dan secara otomatis menembak ketika menemukan kecocokan. Mereka bertindak tanpa keraguan, tanpa refleksi moral, dan tanpa pemahaman akan nilai kehidupan manusia.

Kecepatan dan ketiadaan keraguan memberi sistem otonom potensi untuk dengan cepat meningkatkan eskalasi konflik. Dan karena bekerja berdasarkan pengenalan pola dan probabilitas statistik, sistem ini membawa potensi besar terjadinya kesalahan mematikan.

Serangan Israel ke Gaza telah memberikan gambaran pertama tentang genosida berbantuan AI. Militer Israel telah mengerahkan sejumlah sistem penargetan algoritmik: menggunakan Lavender dan The Gospel untuk mengidentifikasi tersangka militan Hamas serta menghasilkan daftar target manusia dan infrastruktur untuk dibom, serta Where’s Daddy untuk melacak target dan membunuh mereka ketika berada di rumah bersama keluarga mereka. Pejabat intelijen Israel telah mengakui tingkat kesalahan sekitar 10 persen, namun hal tersebut tetap diperhitungkan, dengan menganggap 15 hingga 20 kematian warga sipil dapat diterima untuk setiap militan tingkat rendah yang diidentifikasi algoritme, dan lebih dari 100 untuk komandan.

Dehumanisasi kekerasan juga menciptakan kekosongan akuntabilitas. Ketika sebuah algoritme membunuh orang yang salah, siapa yang bertanggung jawab? Programmer? Komandan? Politisi yang mengesahkan penggunaannya? Ketidakpastian hukum merupakan fitur bawaan yang melindungi para pelaku dari konsekuensi. Ketika keputusan hidup dan mati dibuat oleh mesin, gagasan tentang tanggung jawab itu sendiri pun memudar.

Kekhawatiran ini muncul dalam konteks yang lebih luas dari meningkatnya alarm terhadap dampak AI terhadap ruang sipil dan hak asasi manusia. Seiring teknologi menjadi semakin murah, penggunaannya meluas ke berbagai ranah, dari medan perang hingga pengendalian perbatasan dan operasi kepolisian. Teknologi pengenalan wajah berbasis AI memperkuat kemampuan pengawasan dan merongrong hak privasi. Bias yang tertanam dalam algoritme melanggengkan eksklusi berdasarkan gender, ras, dan karakteristik lainnya.

Seiring berkembangnya teknologi ini, komunitas internasional telah menghabiskan lebih dari satu dekade membahas senjata otonom tanpa menghasilkan regulasi yang mengikat. Sejak 2013, ketika negara-negara pihak pada Konvensi PBB tentang Senjata Konvensional Tertentu sepakat untuk memulai pembahasan, kemajuannya sangat lambat. Kelompok Pakar Pemerintah tentang Sistem Senjata Otonom Mematikan telah bertemu secara rutin sejak 2017, namun perundingan secara sistematis dihambat oleh kekuatan militer besar—India, Israel, Rusia, dan Amerika Serikat—yang memanfaatkan persyaratan konsensus untuk memblokir proposal regulasi. Pada bulan September, 42 negara menyampaikan pernyataan bersama yang menegaskan kesiapan mereka untuk melangkah maju. Ini merupakan terobosan setelah bertahun-tahun kebuntuan, tetapi para penentang utama tetap mempertahankan penolakan mereka.

Untuk mengatasi hambatan ini, Majelis Umum PBB mengambil inisiatif. Pada Desember 2023, Majelis Umum mengadopsi Resolusi 78/241, resolusi pertamanya tentang senjata otonom, dengan 152 negara memberikan suara setuju. Pada Desember 2024, Resolusi 79/62 memandatkan konsultasi antarnegara anggota, yang diselenggarakan di New York pada Mei 2025. Diskusi ini mengeksplorasi dilema etis, implikasi hak asasi manusia, ancaman keamanan, dan risiko teknologi. Sekretaris Jenderal PBB, Komite Palang Merah Internasional, serta berbagai organisasi masyarakat sipil telah menyerukan agar perundingan diselesaikan paling lambat tahun 2026, mengingat pesatnya perkembangan AI militer.

Campaign to Stop Killer Robots, sebuah koalisi yang terdiri dari lebih dari 270 kelompok masyarakat sipil dari lebih 70 negara, telah memimpin upaya ini sejak 2012. Melalui advokasi dan riset yang berkelanjutan, kampanye ini membentuk perdebatan dan mendorong pendekatan dua tingkat yang saat ini didukung oleh lebih dari 120 negara. Pendekatan ini menggabungkan pelarangan sistem paling berbahaya—yang menargetkan manusia secara langsung, beroperasi tanpa kendali manusia yang bermakna, atau yang dampaknya tidak dapat diprediksi secara memadai—dengan regulasi ketat terhadap sistem lainnya. Sistem yang tidak dilarang hanya boleh digunakan di bawah pembatasan ketat yang mensyaratkan pengawasan manusia, prediktabilitas, dan akuntabilitas yang jelas, termasuk pembatasan jenis target, pembatasan waktu dan lokasi, pengujian wajib, serta keharusan adanya pengawasan manusia dengan kemampuan untuk melakukan intervensi.

Jika ingin memenuhi tenggat waktu tersebut, komunitas internasional hanya memiliki waktu satu tahun untuk menyelesaikan sebuah perjanjian yang gagal dihasilkan oleh satu dekade perundingan. Setiap bulan yang berlalu, sistem senjata otonom menjadi semakin canggih, semakin luas digunakan, dan semakin tertanam dalam doktrin militer.

Begitu senjata otonom digunakan secara luas dan gagasan bahwa mesin menentukan siapa yang hidup dan siapa yang mati menjadi sesuatu yang normal, akan jauh lebih sulit untuk memberlakukan regulasi. Negara-negara harus segera merundingkan sebuah perjanjian yang melarang sistem senjata otonom yang secara langsung menargetkan manusia atau beroperasi tanpa kendali manusia yang bermakna, serta menetapkan mekanisme akuntabilitas yang jelas atas pelanggaran. Teknologi ini tidak dapat “dihapuskan,” tetapi masih dapat dikendalikan.

Inés M. Pousadela adalah Kepala Riset dan Analisis CIVICUS, ko-direktur dan penulis CIVICUS Lens, serta salah satu penulis State of Civil Society Report. Ia juga Profesor Politik Perbandingan di Universidad ORT Uruguay.

Untuk wawancara atau informasi lebih lanjut, silakan hubungi: research@civicus.org

INPS Japan / IPS

Most Popular