YERUSALEM – Selama dua minggu terakhir, sejak kelompok teroris Palestina Hamas melakukan serangan mematikan di selatan Israel yang menewaskan sekitar 1.400 orang dan Israel, ada ketakutan bahwa perang lama antara orang Israel dan Palestina dapat membuka front baru – di ranah digital.
Meskipun gambar yang dimanipulasi dan berita palsu telah lama menjadi bagian dari arsenal perang di Timur Tengah, dengan kedatangan kurang dari setahun lalu alat kecerdasan buatan (AI) generatif yang mudah digunakan tampaknya sangat mungkin bahwa visual deepfake akan segera muncul di garis depan perang juga.
“Hamas dan faksi Palestina lainnya sudah menyebarkan gambar mengerikan dari konflik lain seolah-olah mereka adalah korban Palestina dari serangan Israel, jadi ini bukan sesuatu yang unik untuk teater operasi ini,” kata David May, manajer riset di Yayasan untuk Pertahanan Demokrasi, kepada Digital.
Ia menjelaskan bagaimana di masa lalu, Hamas diketahui mengintimidasi jurnalis agar tidak melaporkan tentang penggunaan perisai manusia di enklaf Palestina, serta menyusun gambar balita dan boneka beruang yang terkubur di puing-puing.
“Hamas mengendalikan narasi di Jalur Gaza,” kata May, yang mengikuti kegiatan Hamas dengan saksama, menambahkan bahwa “gambar yang dihasilkan AI akan mempersulit konflik Israel-Palestina yang sudah penuh dengan disinformasi.”
Sudah ada beberapa laporan tentang gambar yang diunggah kembali dari konflik yang berbeda, dan minggu lalu, foto menyedihkan seorang bayi menangis merangkak di antara puing-puing di Gaza terungkap sebagai kreasi AI.
“Saya sebutnya berita palsu yang diperbarui,” kata Dr. Tal Pavel, pendiri dan direktur CyBureau, lembaga Israel untuk studi kebijakan siber, kepada Digital. “Kita sudah mengetahui istilah berita palsu, yang dalam kebanyakan kasus adalah konten visual atau tertulis yang dimanipulasi atau ditempatkan dalam konteks palsu. AI, atau deepfake, adalah ketika kita mengambil gambar-gambar itu dan membuatnya hidup dalam cuplikan video.”
Pavel menyebut munculnya visual deepfake AI “salah satu ancaman terbesar bagi demokrasi.”
“Ini tidak hanya selama perang tapi juga selama waktu-waktu lain karena semakin sulit untuk membuktikan apa yang nyata atau tidak,” katanya.
Dalam kehidupan sehari-hari, Pavel mencatat, kasus disinformasi deepfake sudah terungkap. Ia menyebut penggunaannya oleh geng kejahatan yang melakukan penipuan dengan teknologi pengubahan suara atau selama kampanye pemilihan dimana video dan suara dimanipulasi untuk mengubah persepsi publik.
Dalam perang, ia menambahkan, hal itu bisa lebih berbahaya.
“Ini adalah wilayah perang baru dan kita baru berada di tahap awal penerapannya,” kata Pavel. “Siapa saja, dengan sumber daya yang cukup rendah, dapat menggunakan AI untuk membuat beberapa foto dan gambar yang luar biasa.”
Teknik ini sudah digunakan dalam perang Rusia yang berkelanjutan di Ukraina kata Ivana Stradner, rekan peneliti lain di Yayasan untuk Pertahanan Demokrasi yang mengkhususkan diri pada arena Ukraina-Rusia.
Pada Maret lalu, video palsu dan sangat dimanipulasi Presiden Volodymyr Zelenskyy tampaknya meminta pasukannya untuk menurunkan senjata dan menyerah kepada Rusia diunggah di media sosial dan dibagikan oleh berita Ukraina. Setelah diketahui palsu, video itu dengan cepat dihapus.
“Video deepfake dapat terlihat sangat nyata dan jika dibuat dengan baik, maka sulit terdeteksi,” kata Stradner, menambahkan bahwa aplikasi kloning suara mudah didapatkan dan foto asli dengan mudah dicuri, diubah dan digunakan kembali.
Di dalam Gaza, arena itu bahkan lebih sulit ditempuh. Dengan hampir tidak ada jurnalis kredibel yang dikenal secara luas saat ini berada di Jalur – Hamas menghancurkan jalan masuk manusia utama ke enklaf Palestina selama serangannya pada 7 Oktober dan pers asing tidak dapat masuk – membedakan fakta dan apa yang palsu sudah menjadi tantangan, dengan platform AI yang mudah digunakan yang bisa menjadi jauh lebih sulit.
Namun, Dr. Yedid Hoshen, yang telah meneliti deepfake dan metode deteksi di Universitas Ibrani Yerusalem, mengatakan teknik semacam itu belum sepenuhnya tidak bisa dibohongi.
“Membuat gambar sendiri tidak sulit, banyak teknik tersedia di luar sana dan siapa pun cukup cakap dapat menghasilkan gambar atau video tetapi ketika kita bicara tentang deepfake, kita berbicara tentang wajah berbicara atau pertukaran wajah. Jenis gambar palsu ini lebih sulit dibuat dan untuk konflik seperti ini, mereka harus dibuat dalam bahasa Ibrani atau Arab ketika sebagian besar teknologinya masih hanya dalam bahasa Inggris.”
Selain itu, kata Hoshen, masih ada tanda-tanda yang membedakan visual AI dari yang asli.
“Masih cukup sulit membuat visual sesuai dengan audio, yang mungkin tidak terdeteksi dengan mata manusia tetapi dapat terdeteksi menggunakan teknik otomatis,” katanya, menambahkan “detail kecil seperti tangan, jari atau rambut tidak selalu terlihat nyata.”
“Jika gambar terlihat mencurigakan maka mungkin palsu,” kata Hoshen. “Masih banyak yang AI salah menangkap.”