Garis Depan Tak Terlihat: Perang Algoritmik dan Kehancuran Atas Kemanusiaan

7 hours ago 7

loading...

Ressa Uli Patrissia, Dosen Universitas Muhammadiyah Palangka Raya, Pemerhati Komunikasi dan Teknologi, dan Peneliti Komunikasi Algoritmik. Foto/Dok.Pribadi

Ressa Uli Patrissia
Dosen Universitas Muhammadiyah Palangka Raya
Pemerhati Komunikasi dan Teknologi, dan Peneliti Komunikasi Algoritmik

ADA yang berubah secara mendasar dalam cara manusia menewaskan sesamanya dan kita hampir tidak menyadarinya. Konflik yang melibatkan Amerika Serikat (AS), Israel, dan Iran hari ini bukan lagi perang dalam pengertian yang kita warisi dari buku sejarah: pasukan berhadapan, batas wilayah dilanggar, deklarasi diumumkan.

Namun yang terjadi saat ini adalah sesuatu yang jauh lebih licin, jauh lebih tersembunyi, dan justru karena itulah jauh lebih berbahaya. Ini adalah perang yang dirancang agar tidak terlihat sebagai perang, agar tidak memicu kecaman publik, tidak menuntut pertanggungjawaban, dan tidak meninggalkan jejak yang cukup jelas untuk disidangkan di Mahkamah Internasional mana pun.

Kita menyebutnya transformasi teknologi militer. Saya lebih cenderung menyebutnya: normalisasi kekerasan yang difasilitasi algoritma.

Ketika Mesin Memutuskan Siapa yang Harus Tewas

Salah satu perkembangan paling menggelisahkan dalam arsitektur perang modern adalah apa yang dikenal sebagai automated target prioritization, suatu sistem yang secara otomatis mengidentifikasi, meranking, dan merekomendasikan target serangan berdasarkan pemrosesan data masif.

Sistem ini bekerja sebelum keputusan manusia diambil. Ia menyusun daftar. Ia menentukan urutan. Ia menawarkan pilihan kepada komandan militer dalam bentuk antarmuka yang terlihat seperti dashboard manajemen, bukan surat perintah kematian.

Pertanyaannya bukan lagi "siapa yang menarik pelatuk?" Pertanyaannya adalah: siapa yang bertanggung jawab ketika algoritmanya salah?

Sejauh ini, tidak ada jawaban yang memuaskan. Industri pertahanan menyebutnya "human in the loop" - manusia tetap ada dalam rantai keputusan. Namun dalam praktiknya, ketika seorang operator militer disuguhi rekomendasi sistem yang diklaim memiliki akurasi tinggi, dalam tekanan operasional, dengan waktu respons yang terbatas seberapa "manusiawi" sesungguhnya keputusan itu?

Manusia menjadi penanda tangan, bukan pemikir. Akuntabilitas moral diencerkan ke titik yang hampir tidak ada.
Ini bukan hanya masalah teknis. Ini adalah krisis etika yang sistemik, dan kita sedang membiarkannya terjadi dalam senyap.

Drone: Senjata yang Memisahkan Kekerasan dari Konsekuensinya

Argumen paling lazim yang digunakan untuk membenarkan penggunaan drone militer adalah reduced human risk, pengurangan risiko terhadap nyawa tentara pihak yang menyerang. Secara retorika, ini terdengar humanis, bahkan progresif. Namun mari kita bongkar argumen itu lebih jujur.

Pengurangan risiko bagi satu pihak tidak pernah berarti pengurangan risiko secara absolut. Ia hanya berarti transfer risiko; dari tubuh tentara di negara penyerang kepada tubuh-tubuh lain di wilayah yang diserang, termasuk tubuh sipil yang tidak memiliki drone untuk membalas.

Yang berubah bukan tingkat kematian; yang berubah adalah jarak psikologis antara yang berniat menewaskan dan yang akan ditewaskan.Dan jarak psikologis inilah yang paling merusak secara moral.

Read Entire Article
Politics | | | |