Selasa, Oktober 22, 2024

AI di Medan Perang: Sekutu atau Ancaman Baru?

Donny Syofyan
Donny Syofyan
Dosen Fakultas Ilmu Budaya Universitas Andalas

Kecerdasan buatan, yang dulu digambarkan sebagai ancaman bagi umat manusia dalam film-film fiksi ilmiah, kini justru menjadi incaran militer sebagai sekutu. Beberapa bulal lalu, perwakilan dari berbagai negara berkumpul di Seoul untuk menghadiri KTT REAIM (Responsible AI in the Military Domain). Ini adalah pertemuan kedua setelah edisi pertama di Amsterdam tahun lalu. Sekitar 60 negara hadir dan mendukung seruan untuk bertindak, meskipun hanya berupa pernyataan tanpa komitmen hukum. Kali ini, mereka melangkah lebih jauh dengan mendukung cetak biru untuk mengatur penggunaan AI di militer.

Cetak biru ini berisi beberapa pedoman praktis, namun tetap tidak mengikat secara hukum. Salah satu pesan paling kuat dari KTT ini adalah pentingnya kolaborasi dan kerja sama internasional. “Teknologi AI, meskipun memiliki potensi luar biasa, juga menghadirkan tantangan etika, keamanan, dan tata kelola yang kompleks. Tidak seorang pun dari kita dapat mengatasi tantangan ini sendirian.”

Cetak biru ini bertujuan untuk menciptakan pagar pengaman, sebuah kerangka kerja untuk mengawasi penerapan AI di militer. Namun, tidak semua negara menerimanya, termasuk China. Beijing mengirim perwakilan ke KTT, tetapi tidak mendukung dokumen tersebut. India juga belum sepenuhnya yakin, mereka tidak mendukung seruan untuk bertindak di Den Haag dan belum memberikan pernyataan tentang cetak biru di Seoul.

Jelas, dunia masih belum sepakat tentang hal ini, yang menimbulkan beberapa pertanyaan mendasar: Bagaimana cara kerja AI dalam peperangan? Apa saja risikonya? Apakah penggunaan kecerdasan buatan ini sebuah keuntungan atau ancaman?

Mari kita lihat dulu kegunaannya. Kecerdasan buatan bukanlah hal baru dalam dunia militer, bahkan telah menjadi bagian integral. Di satu sisi, ada hal-hal teknis seperti pemeliharaan dan logistik dasar yang dapat dibantu oleh AI. Sebuah studi terbaru menunjukkan bagaimana AI bisa memprediksi kapan pesawat tempur A-10C perlu diperbaiki, menghemat hampir $25 juta bagi Amerika setiap bulannya. Ada juga tugas-tugas membosankan seperti memeriksa file. Angkatan Darat AS menggunakan model AI untuk memeriksa 140.000 file personel dan memberikan skor untuk promosi.

AI membantu meringankan pekerjaan kasar, tapi bagaimana dengan di medan perang? AI sudah digunakan di sana, dari Ukraina hingga Gaza, dan mengubah cara berperang. Kita berbicara tentang drone bertenaga AI, sensor otomatis, bahkan alat pengambilan keputusan otonom. Beberapa militer melihatnya sebagai nilai tambah, dengan keuntungan seperti pengambilan keputusan yang lebih cepat, penargetan yang lebih akurat, dan pengurangan risiko bagi manusia. Ini menjadikan AI sebagai perbatasan baru dalam peperangan.

Namun, masalahnya tidak sesederhana itu. Secara teori dan dalam algoritma, teknologi ini terdengar mengagumkan, tetapi dalam medan perang, hasilnya bisa sangat berbeda. Ambil contoh sistem AI bernama Lavender yang digunakan oleh Israel. Sistem ini memiliki informasi tentang hampir setiap penduduk di Gaza dan menggunakan data tersebut untuk mengidentifikasi apakah seseorang merupakan militan Hamas atau bukan.

Pada satu titik, Lavender telah mengidentifikasi 37.000 target individu! Masalah muncul karena tingkat kesalahan sistem ini mencapai 10%, artinya banyak hasil yang harus ditinjau ulang oleh manusia. Sayangnya, dalam situasi perang, tidak selalu ada waktu atau sumber daya untuk melakukan pengecekan, sehingga potensi kerugian yang tidak diinginkan menjadi besar.

Contoh lainnya terjadi pada tahun 2020 ketika sebuah drone pembunuh berbasis AI memburu dan membunuh tentara yang sedang melarikan diri di Libya. Drone ini beroperasi sepenuhnya secara mandiri tanpa konsultasi manusia, menargetkan manusia tanpa pertimbangan lain. Ini membuatnya sangat berbahaya. AI mungkin mampu mengunci target dengan presisi, tetapi sering kali tidak bisa membedakan antara ancaman nyata dan orang yang tidak bersalah, membuka ruang bagi kesalahan fatal. Dalam konteks perang, konsekuensi kesalahan seperti ini bisa sangat mematikan.

Selain itu, muncul pertanyaan etis yang sulit dijawab: siapa yang bertanggung jawab jika mesin membuat kesalahan? Apakah itu kesalahan mesinnya, desainer yang merancangnya, atau tentara yang menggunakannya? Dalam situasi seperti ini, menentukan pihak yang harus disalahkan menjadi sangat rumit.

Ada skenario mengerikan lainnya, yaitu penggunaan AI dalam perang nuklir. Satu kesalahan kecil bisa membahayakan jutaan nyawa. Risiko yang ditimbulkan oleh AI dalam konflik meliputi eskalasi tak terduga, kegagalan akibat bias algoritma atau sistemik, dan ketidaksesuaian yang serius dengan nilai-nilai kemanusiaan.

Walaupun ada banyak risiko, AI tetap dianggap sebagai masa depan, dan negara-negara harus mengikuti perkembangan ini. Ada dua hal yang sangat dibutuhkan saat ini. Pertama, pengawasan manusia. AI mungkin mampu memprediksi target, tetapi tetap harus ada manusia yang memverifikasi dan membuat keputusan akhir.

Kedua, AI yang telah teruji dan terpercaya. Setiap penggunaan teknologi ini harus melalui evaluasi ketat. Tidak ada ruang bagi teknologi yang setengah matang dalam peperangan, karena di medan pertempuran, teknologi yang tidak sempurna dapat menentukan perbedaan antara hidup dan mati.

Donny Syofyan
Donny Syofyan
Dosen Fakultas Ilmu Budaya Universitas Andalas
Facebook Comment

ARTIKEL TERPOPULER

Log In

Forgot password?

Don't have an account? Register

Forgot password?

Enter your account data and we will send you a link to reset your password.

Your password reset link appears to be invalid or expired.

Log in

Privacy Policy

Add to Collection

No Collections

Here you'll find all collections you've created before.