- Jane Wakefield
- Teknologi BBC
sumber gambar, Lainnya
Video deepfake Presiden Zelensky muncul di situs web jaringan TV Ukraina Ukrayina 24 yang diretas
Sebuah video deepfake telah menjadi viral di Twitter, menunjukkan Presiden Rusia Vladimir Putin menyatakan perdamaian. Pada waktu yang hampir bersamaan, Meta dan Youtube menghapus video deepfake yang menunjukkan Presiden Ukraina, Volodymyr Zelensky, menyatakan menyerah kepada Rusia.
Dengan manipulasi media yang melibatkan kedua belah pihak, apa yang bisa dimaknai dari kemunculan video-video tersebut dalam konteks disinformasi di tengah konflik?
Apakah publik benar-benar percaya video deepfake itu?
Video palsu Presiden Zelensky tampak tidak meyakinkan, dan diejek oleh banyak orang Ukraina.
Video deepfake menunjukkan Zelensky di belakang podium, memerintahkan warga Ukraina untuk meletakkan senjata mereka. Kepalanya terlihat terlalu besar dan lebih pixelated daripada tubuhnya. Selain itu, suaranya juga terdengar lebih dalam.
Untuk menangkal video palsu tersebut, Presiden Zelensky yang asli mengunggah video tersebut di akun Instagram resminya dan menyebutnya sebagai “provokasi kekanak-kanakan”.
Namun, Pusat Komunikasi Strategis Ukraina memperingatkan bahwa pemerintah Rusia dapat menggunakan deepfake untuk meyakinkan Ukraina agar menyerah.
Dalam sebuah utas di Twitter, Kepala Kebijakan Keamanan Meta Nathaniel Gleicer mengatakan mereka telah “dengan cepat meninjau dan menghapus” konten deepfake karena melanggar kebijakan mereka tentang media yang dimanipulasi dan menyesatkan.
YouTube juga mengatakan telah menghapus konten karena melanggar kebijakan mereka tentang disinformasi.
Penulis Deepfakes, Nina Schick, mengatakan itu adalah keputusan yang mudah dibuat oleh perusahaan media sosial. Pasalnya, video tersebut terlihat sangat kasar dan jelas terlihat palsu, bahkan untuk pengguna biasa.
“Platform media sosial dapat memicu kehebohan besar dalam mengatasi hal ini, jika mereka tidak bertindak lebih pada bentuk disinformasi lainnya,” katanya.
“Ada begitu banyak bentuk disinformasi lain terkait perang ini yang belum dibantah.”
“Meskipun video palsu ini masih sangat buruk dan kasar, situasinya bisa berubah dalam waktu dekat,” kata Schick, seraya menambahkan bahwa itu bisa “mengikis kepercayaan publik terhadap media yang sebenarnya.”
“Orang-orang mulai percaya bahwa apa pun bisa dipalsukan,” katanya.
“Ini adalah senjata baru dan bentuk disinformasi visual yang kuat – dan siapa pun bisa melakukannya.”
Berbagai bentuk teknologi deepfake
sumber gambar, Warisanku
Deepfake telah banyak digunakan, karena memungkinkan penggunanya untuk menganimasikan foto lama kerabat mereka. Perusahaan di baliknya, MyHeritage, bahkan menambahkan fitur LiveStory yang memungkinkan suara pada konten.
Deepfake telah banyak digunakan, karena memungkinkan penggunanya untuk menganimasikan foto lama kerabat mereka.
Perusahaan di balik teknologi tersebut, MyHeritage, bahkan menambahkan fitur LiveStory yang memungkinkan suara terdengar di konten.
Namun tahun lalu, ada reaksi beragam ketika jaringan televisi Korea Selatan, MBN, menggunakan teknologi ini untuk membuat pembaca berita palsu untuk Kim Joo-Ha.
Beberapa terkesan dengan betapa realistisnya pembaca berita itu, sementara yang lain khawatir Kim Joo-Ha yang asli akan kehilangan pekerjaannya.
Teknologi Deepfake juga digunakan untuk memproduksi konten pornografi, dengan menjamurnya situs yang memungkinkan pengguna untuk “telanjang” foto dalam beberapa tahun terakhir.
Teknologi ini juga dapat digunakan untuk tujuan satir, seperti tahun lalu, Channel 4 membuat Ratu Elizabeth II palsu untuk menyampaikan pesan Natal Alternatif. Namun, penggunaan deepfake dalam politik masih relatif jarang.
Saat detektornya salah
“Video palsu Zelensky adalah contoh bagus dalam menangani deepfake,” kata direktur program Witness.org Sam Gregory.
“(Videonya) tidak terlalu bagus, jadi mudah dideteksi.”
“Dan itu kemudian dibantah oleh Ukraina serta Zelensky sendiri melalui media sosial, sehingga mudah bagi Facebook untuk memutuskan untuk segera menghapusnya.”
Tetapi di bagian lain dunia, jurnalis dan kelompok hak asasi manusia khawatir mereka kekurangan alat dan kapasitas untuk mendeteksi atau menyanggah tuduhan deepfake.
sumber gambar, AFP melalui Getty Images
Seorang jurnalis AFP melihat video di meja beritanya di Washington DC pada 25 Januari 2019, yang merupakan hasil manipulasi dengan kecerdasan buatan untuk berpotensi menipu pemirsa, atau “deepfake”.
Detektor menganalisis bagaimana seseorang bergerak atau mencari hal-hal seperti proses pembelajaran mesin yang menciptakan deepfake.
Beberapa waktu lalu, alat pendeteksi online mengidentifikasi video asli seorang politisi senior di Myanmar – yang menampilkan pengakuan korupsinya – sebagai deepfake. Masih menjadi perdebatan, apakah pengakuan itu nyata atau dipaksakan.
“Kurangnya bukti dan kesediaan orang untuk percaya bahwa itu adalah deepfake mencerminkan tantangan yang sebenarnya,” kata Gregory.
“Presiden Putin juga dibuat menjadi deepfake beberapa minggu yang lalu, dan secara luas dianggap sebagai sindiran, tetapi ada garis tipis antara satire dan disinformasi.”
Analisis oleh Shayan Sardarizadeh, Pemantauan BBC
Sebuah transkrip video deepfake Presiden Zelensky pertama kali muncul di ticker jaringan televisi Ukraina, Ukrayina 24, selama siaran langsung pada hari Rabu.
Tangkapan layar dan transkrip lengkap kemudian muncul di situs webnya.
Ukraniya 24 kemudian menyatakan situs mereka tidak dapat diakses pada hari Rabu. Apalagi ticker mereka telah diretas.
Video tersebut kemudian menjadi viral di Telegram berbahasa Rusia, serta media sosial VK.
Dari situ, video palsu tersebut menyebar ke media sosial lain seperti Facebook, Instagram, dan Twitter.
Ada sejumlah peringatan bahwa konten deepfake dapat memiliki efek berbahaya, termasuk dalam konflik.
Tetapi memproduksi konten deepfake yang dapat dipercaya itu mahal dan memakan waktu.
Sejauh ini, video lama dan meme palsu masih menjadi taktik disinformasi yang paling umum dan efektif dalam perang ini.
Video deepfake Zelensky adalah salah satu konten disinformasi terburuk yang pernah saya lihat.
Namun, fakta bahwa deepfake telah digunakan dan disebarkan selama perang patut diperhatikan. Karena konten deepfake berikutnya mungkin tidak seburuk itu lagi.