Mobil yang hancur akibat serangan udara Israel yang menewaskan pekerja kemanusiaan World Central Kitchen (WCK), di antaranya warga asing, di Deir Al Balah, Gaza Tengah, 2 April 2024. (Foto: Reuters)
JAKARTA – Sebuah laporan baru mengungkap bahwa israel telah menggunakan sistem program kecerdasan buatan atau artificial intelligence (AI) yang bernama Lavender untuk membuat “daftar pembunuhan” terhadap puluhan ribu orang di Gaza. Daftar ini disebut bertanggung jawab atas serangan-serangan Israel yang menyebabkan tewasnya ribuan warga sipil di Gaza, termasuk anak-anak dan pekerja kemanusiaan.
Laporan yang diungkap oleh +972 Magazine dan Local Call, mengutip enam perwira intelijen Israel yang tidak disebutkan namanya, mengungkap bagaimana militer zionis “hampir sepenuhnya bergantung” pada Lavender selama minggu-minggu awal perang dengan kelompok pejuang Palestina Hamas di Gaza, meskipun faktanya sistem itu diketahui salah mengidentifikasi target potensial sebagai teroris.
Petugas yang memastikan pengambilan keputusan mengenai sasaran, mengatakan bahwa perannya dalam sistem ini hanya sebagai “stempel karet” untuk Lavender. Petugas itu mengatakan bahwa dia hanya membutuhkan waktu sekira 20 detik untuk memutuskan serangan berdasarkan rekomendasi dari Lavender.
Dilansir Gizmodo, sistem AI Lavender dilaporkan bekerja dengan menganalisis informasi yang dikumpulkan dari hampir seluruh 2,3 juta warga Palestina di Jalur Gaza “melalui sistem pengawasan massal,” dan menilai kemungkinan seseorang menjadi anggota Hamas dalam sistem peringkat yang tidak jelas. Setiap orang Palestina diberi peringkat 1 hingga 100 yang seharusnya menentukan seberapa besar kemungkinan mereka menjadi anggota kelompok pejuang tersebut.
“Lavender belajar mengidentifikasi karakteristik dari agen Hamas dan (Jihad Islam Palestina) yang diketahui, yang informasinya dimasukkan ke mesin sebagai data pelatihan, dan kemudian menemukan karakteristik yang sama – juga disebut “fitur” – di antara masyarakat umum, jelas sumber tersebut. Seseorang yang ditemukan memiliki beberapa ciri berbeda yang memberatkan akan mencapai peringkat tinggi, dan dengan demikian secara otomatis menjadi target pembunuhan potensial,” demikian dilaporkan +972.
Militer Israel memberikan “persetujuan menyeluruh” kepada petugas untuk menggunakan Lavender untuk menargetkan di Gaza menurut +972, namun tidak ada persyaratan untuk melakukan pemeriksaan menyeluruh tentang “mengapa mesin tersebut membuat pilihan tersebut atau untuk memeriksa data intelijen mentah yang digunakan AI itu.”