• September 21, 2024

Apa arti robot pembunuh bagi masa depan perang

Meski belum hadir dalam bentuk robot Terminator, senjata otonom yang mematikan telah hadir, dan pengembangan lanjutannya harus diawasi secara ketat.

Anda mungkin pernah mendengar tentang robot pembunuh, battlebot, atau terminator – yang secara resmi disebut senjata otonom mematikan (LAWs) – dari film dan buku. Dan gagasan merajalelanya senjata super cerdas masih merupakan fiksi ilmiah. Namun seiring dengan semakin canggihnya senjata AI, kekhawatiran masyarakat semakin besar atas ketakutan akan kurangnya akuntabilitas dan risiko kegagalan teknis.

Kita telah melihat bagaimana apa yang disebut AI netral terjadi algoritma seksis Dan sistem moderasi konten yang tidak kompeten, terutama karena pembuatnya tidak memahami teknologinya. Namun dalam perang, kesalahpahaman seperti ini dapat membunuh warga sipil atau menghancurkan negosiasi.

Misalnya, algoritma pengenalan target dapat dilatih untuk mengidentifikasi tank dari citra satelit. Namun bagaimana jika semua gambar yang digunakan untuk melatih sistem berisi tentara yang sedang membentuk formasi di sekitar tank? Mereka mungkin menganggap kendaraan sipil yang melewati blokade militer sebagai sasaran.

Mengapa kita membutuhkan senjata otonom?

Warga sipil di banyak negara (mis Vietnam, Afganistan Dan Yaman) menderita karena cara negara-negara adidaya global membangun dan menggunakan senjata yang semakin canggih. Banyak orang berargumentasi bahwa mereka lebih banyak melakukan keburukan dibandingkan kebaikan, dan yang terakhir merujuk pada hal tersebut Invasi Rusia ke Ukraina awal tahun 2022.

Di kubu lain ada yang berpendapat suatu negara harus mampu mempertahankan diri, artinya harus bisa mengimbangi teknologi militer negara lain. AI sudah bisa mengecoh manusia catur dan poker. Ia juga mengungguli manusia di dunia nyata. Misalnya, Microsoft mengklaim bahwa perangkat lunak pengenalan suaranya memiliki tingkat kesalahan sebesar 1% dibandingkan dengan tingkat kesalahan manusia sekitar 6%. Jadi tidak mengherankan jika pihak militer perlahan-lahan menyerahkan kendali pada algoritma.

Namun bagaimana kita menghindari penambahan robot pembunuh ke dalam daftar panjang hal-hal yang kita harap tidak pernah kita temukan? Pertama: kenali musuhmu.

Apa itu Senjata Otonomi Mematikan (HUKUM)?

Amerika Serikat Departemen Pertahanan mendefinisikan sistem senjata otonom sebagai: “Sistem senjata yang, setelah diaktifkan, dapat memilih dan menyerang target tanpa intervensi lebih lanjut oleh operator manusia.”

Banyak sistem tempur yang sudah memenuhi kriteria ini. Komputer pada drone dan rudal modern memiliki algoritma yang dapat melakukannya menemukan target dan menembaki mereka dengan akurasi yang jauh lebih tinggi dibandingkan operator manusia. Iron Dome Israel adalah salah satu dari beberapa sistem pertahanan aktif yang dapat menyerang target tanpa pengawasan manusia.


Sementara dirancang untuk pertahanan rudal, Iron Dome dapat membunuh orang secara tidak sengaja. Namun risiko ini dianggap dapat diterima dalam politik internasional karena Iron Dome secara umum memiliki sejarah yang dapat dipercaya dalam melindungi kehidupan warga sipil.

Ada juga senjata berkemampuan AI yang dirancang untuk menyerang manusia penjaga robot pada melenggang dengan drone kamikaze digunakan dalam perang Ukraina. HUKUM sudah ada di sini. Jadi, jika kita ingin mempengaruhi penggunaan LAWS, kita perlu memahami sejarah senjata modern.

Aturan perang

Perjanjian internasional, seperti Konvensi Jenewa menetapkan tata cara perlakuan terhadap tawanan perang dan warga sipil selama konflik. Mereka adalah salah satu dari sedikit alat yang kita miliki untuk mengontrol bagaimana perang terjadi. Sayangnya, penggunaan senjata kimia oleh Amerika di Vietnam, dan oleh Rusia di Afghanistan, merupakan bukti bahwa tindakan tersebut tidak selalu berhasil.

Yang lebih buruk adalah ketika pemain kunci menolak untuk mendaftar. Itu Kampanye Internasional untuk Melarang Ranjau Darat (ICBL) telah berkampanye kepada para politisi untuk melarang ranjau dan munisi tandan (yang menyebarkan bom kecil secara acak di wilayah yang luas) sejak tahun 1992. Pada tahun 1997 Perjanjian Ottawa termasuk larangan senjata tersebut, yang ditandatangani oleh 122 negara. Namun AS, Tiongkok, dan Rusia tidak menyetujuinya.

Ranjau darat telah melukai dan membunuh setidaknya 5.000 tentara dan warga sipil setiap tahunnya sejak tahun 2015 dan sebanyak 9.440 orang pada tahun 2017. Laporan Pengawasan Ranjau Darat dan Munisi Tandan tahun 2022 menyatakan:

“Kasus…menjadi sangat tinggi selama tujuh tahun terakhir, setelah lebih dari satu dekade mengalami penurunan yang bersejarah. Tidak terkecuali tahun 2021. Tren ini sebagian besar disebabkan oleh meningkatnya konflik dan kontaminasi oleh ranjau improvisasi yang terjadi sejak tahun 2015. Warga sipil mewakili sebagian besar korban, setengahnya adalah anak-anak.”

Meskipun ICBL telah berupaya sebaik-baiknya, terdapat bukti mengenai keduanya Rusia Dan Ukraina (anggota Perjanjian Ottawa) menggunakan ranjau darat selama invasi Rusia ke Ukraina. Ukraina juga mengandalkan drone untuk memandu serangan artileri, atau yang lebih baru lagi “serangan kamikaze” terhadap infrastruktur Rusia.

Masa depan kita

Namun bagaimana dengan senjata berkemampuan AI yang lebih canggih? Itu Kampanye untuk menghentikan robot pembunuh mencantumkan sembilan permasalahan utama dalam LAWS, dengan fokus pada kurangnya akuntabilitas, dan dehumanisasi yang melekat pada pembunuhan yang menyertainya.

Meskipun kritik-kritik ini valid, pelarangan total terhadap LAWS tidak realistis karena dua alasan. Pertama, seperti milikku, kotak pandora sudah dibuka. Selain itu, batasan antara senjata otonom, HUKUM, dan robot pembunuh sangat kabur sehingga sulit untuk membedakannya. Para pemimpin militer akan selalu dapat menemukan celah dalam kata-kata larangan dan memasukkan robot pembunuh ke dalam layanan sebagai senjata otonom pertahanan. Mereka bahkan mungkin melakukannya tanpa sadar.

Kita hampir pasti akan melihat lebih banyak senjata yang mendukung AI di masa depan. Namun bukan berarti kita harus melihat ke arah lain. Larangan yang lebih spesifik dan beragam akan membantu menjaga akuntabilitas para politisi, ilmuwan data, dan insinyur kita.

Misalnya dengan melarang:

  • black box AI: sistem di mana pengguna tidak memiliki informasi tentang algoritma selain input dan output
  • AI yang tidak dapat diandalkan: sistem yang kurang teruji (seperti dalam contoh blokade militer yang disebutkan sebelumnya).

Dan Anda tidak perlu menjadi ahli AI untuk mempunyai opini tentang LAWS. Waspadai perkembangan AI militer baru. Saat Anda membaca atau mendengar tentang AI yang digunakan dalam pertempuran, tanyakan pada diri Anda: apakah hal itu dapat dibenarkan? Apakah hal ini melestarikan kehidupan sipil? Jika tidak, libatkan komunitas yang berupaya mengendalikan sistem ini. Bersama-sama, kita mempunyai peluang untuk mencegah AI melakukan lebih banyak dampak buruk daripada manfaat. – Rappler.com

Artikel ini pertama kali muncul di Percakapan.

Jonathan ErskineMahasiswa PhD, AI Interaktif, Universitas Bristol

Miranda MowbrayDosen AI Interaktif, Universitas Bristol

Result SGP