Tips One Tech: Cara Mengenali Gambar Deepfake yang Dihasilkan AI
AI Deepfake kini menjadi salah satu tantangan terbesar di dunia online. Berbagai gambar, video, dan audio yang menyesatkan terus bermunculan akibat penyalahgunaan alat generatif berbasis kecerdasan buatan.
DAFTAR ISI
Hampir setiap hari, gambar deepfake yang melibatkan figur terkenal seperti Taylor Swift hingga Donald Trump menyebar luas, membuat batas antara yang nyata dan palsu semakin sulit dibedakan.
Generator video dan gambar seperti DALL-E, Midjourney, dan OpenAI Sora mempermudah siapa saja, bahkan tanpa keterampilan teknis, untuk menciptakan deepfake hanya dengan mengetik permintaan tertentu.
Walaupun sekilas tampak tidak berbahaya, gambar palsu ini dapat digunakan untuk penipuan, pencurian identitas, propaganda, bahkan manipulasi pemilu.
Cara Mendeteksi Deepfake
Pada masa awal kemunculan deepfake, teknologinya masih memiliki banyak kelemahan yang sering meninggalkan tanda manipulasi jelas. Misalnya, gambar dengan kesalahan seperti tangan dengan enam jari atau kacamata dengan lensa berbentuk berbeda.
Namun, seiring kemajuan AI, deteksi semakin sulit dilakukan. Beberapa saran yang dulu populer, seperti melihat pola kedipan mata yang tidak alami dalam video deepfake, kini tidak lagi relevan, menurut Henry Ajder, pendiri Latent Space Advisory dan pakar AI generatif.
Meski begitu, ada beberapa hal yang tetap bisa Anda perhatikan.
Ajder menyebut banyak foto deepfake, khususnya yang menampilkan manusia, memiliki tampilan elektronik dengan efek "smoothing" yang membuat kulit terlihat sangat halus. Namun, teknik permintaan kreatif (creative prompting) terkadang dapat menghilangkan tanda-tanda ini dan lainnya.
Perhatikan bayangan dan pencahayaan. Subjek mungkin terlihat sangat nyata dan fokus, tetapi elemen di latar belakang sering kali tidak sehalus atau serapi itu.
Fokus Pada Wajah
Metode deepfake paling umum adalah face-swapping. Para ahli menyarankan Anda untuk memperhatikan tepi wajah secara detail. Apakah warna kulit wajah konsisten dengan kepala atau tubuh? Apakah tepi wajah tampak tajam atau kabur?
Jika Anda mencurigai video seseorang berbicara telah dimanipulasi, amati gerakan bibirnya. Apakah gerakan bibir sesuai dengan audio?
Ajder juga menyarankan untuk memperhatikan gigi. Apakah gigi terlihat jelas atau malah kabur dan tidak sesuai dengan tampilan aslinya?
Menurut perusahaan keamanan siber Norton, algoritma deepfake saat ini mungkin belum cukup canggih untuk membuat gigi individu dengan detail. Jadi, kurangnya garis yang jelas pada gigi dapat menjadi petunjuk.
Pikirkan Konteksnya
Terkadang, konteks dapat memberikan petunjuk penting. Pertimbangkan apakah hal yang Anda lihat masuk akal.
Situs jurnalisme Poynter menyarankan untuk mempertanyakan gambar figur publik yang melakukan sesuatu yang tampak "berlebihan, tidak realistis, atau tidak sesuai karakter."
Sebagai contoh, apakah masuk akal jika paus mengenakan jaket puffer mewah, seperti dalam foto palsu yang sempat viral? Jika benar, bukankah akan ada lebih banyak foto atau video dari sumber terpercaya?
Gunakan AI Untuk Mengenali Deepfake
Salah satu cara untuk mengenali deepfake adalah dengan memanfaatkan AI itu sendiri.
Microsoft telah mengembangkan alat autentikator yang dapat menganalisis foto atau video dan memberikan skor keyakinan apakah materi tersebut telah dimanipulasi. FakeCatcher milik Intel menggunakan algoritma untuk menganalisis piksel gambar dan menentukan apakah itu asli atau palsu.
Ada juga alat daring yang mengklaim mampu mendeteksi deepfake jika Anda mengunggah file atau menempelkan tautan materi yang mencurigakan.
Namun, beberapa alat seperti autentikator Microsoft hanya tersedia untuk mitra tertentu dan tidak untuk publik. Hal ini bertujuan agar penjahat siber tidak memanfaatkan alat ini untuk menyempurnakan manipulasi mereka.
Ajder memperingatkan bahwa akses bebas ke alat pendeteksi dapat memberikan kesan seolah-olah teknologi ini "sempurna" dan mampu menggantikan pemikiran kritis kita, padahal alat ini juga memiliki keterbatasan.
Tantangan Mendeteksi Deepfake
Dengan kemajuan AI yang sangat pesat, model AI kini dilatih menggunakan data internet untuk menghasilkan konten berkualitas tinggi dengan semakin sedikit kekurangan.
Artinya, tidak ada jaminan bahwa panduan ini tetap relevan bahkan dalam waktu satu tahun mendatang.
Para ahli bahkan memperingatkan bahwa terlalu membebankan tugas ini kepada masyarakat umum bisa berbahaya. Hal ini dapat menciptakan rasa percaya diri palsu, padahal mendeteksi deepfake semakin sulit, bahkan bagi mata yang terlatih.
Sumber: Kelvin Chan dan Ali Swenson (21 Maret 2024).
Blog ini didukung oleh pembaca. Kami dapat memperoleh komisi afiliasi ketika Anda membeli melalui tautan di situs web kami. Ikuti kami juga di Google News Publisher untuk mendapatkan notifikasi artikel terbaru. Terima kasih.