Abstrak
Teknologi generative AI menciptakan media palsu yang hampir tidak dapat dibedakan dari asli. Video, audio, dan teks sintetis menghadirkan tantangan deteksi yang semakin kompleks bagi institusi demokratis.

Teknologi Pembuatan Konten Palsu

Evolusi Generative AI

Di awal 2020-an, generative AI (AI generatif) mulai menciptakan gambar, audio, dan teks yang hampir tidak dapat dibedakan dari foto asli, rekaman, atau tulisan manusia.1 Russell dan Norvig melaporkan bahwa aktor jahat dapat menggunakan teknologi ini untuk menciptakan jumlah besar misinformasi atau propaganda, dengan salah satu penggunaan berbahaya potensial adalah deepfake untuk propaganda komputasional.1

Video deepfake politik dapat dibuat dengan biaya di bawah $100 dan tersebar ke jutaan orang dalam hitungan jam. Ini menciptakan krisis informasi yang tidak dapat dihentikan oleh fact-checking (pemeriksaan fakta) manual.2 Gambar viral kerusakan Raja Ampat hasil manipulasi AI menunjukkan bahaya disinformasi visual yang dapat menyesatkan opini publik.3

Perusahaan-perusahaan Korea Selatan berlomba membangun detektor untuk video dan gambar yang dimanipulasi AI di tengah skandal manipulasi.4 Namun deteksi deepfake lebih sulit dari pembuatannya—setiap algoritma deteksi baru segera dikalahkan oleh algoritma generasi yang lebih baik.5

Multimodal Deepfakes

Multimodal deepfakes (deepfake multimodal)—menggabungkan video, audio, dan teks—menciptakan serangan yang hampir mustahil dideteksi tanpa infrastruktur verifikasi kriptografi.1 Ini menciptakan arms race (perlombaan senjata) yang tidak menguntungkan antara pembuat dan pendeteksi konten palsu.5

Krisis kebenaran di era AI adalah masalah manusia, bukan teknologis. Alat generatif AI telah menghapus hambatan tradisional untuk memproduksi konten palsu yang meyakinkan.6 Apa yang dulunya memerlukan sumber daya institusional kini dapat dicapai oleh individu dengan akses teknis dasar.

Tim Cek Fakta Tempo meluncurkan game "Detektif Deepfake" yang mengajak pemain mengungkap tipu daya manipulasi AI. Belajar mengenali hoaks tak lagi membosankan, tapi seru layaknya menjadi detektif rahasia.7 Pendekatan gamifikasi ini menunjukkan inovasi dalam literasi media digital.

Dampak dan Mitigasi

Erosi Kepercayaan Institusional

Deepfake dan teks yang dihasilkan AI digunakan untuk membuat konten yang tampak otentik, merusak trust (kepercayaan) dalam institusi demokrasi.5 Pengamat Militer Institute for Security and Strategic Studies (ISESS) Khairul Fahmi mengingatkan bahwa saat ini sangat marak disinformasi visual.3

Sistem rekomendasi YouTube dan Facebook memandu pengguna ke lebih banyak konten. AI belajar bahwa pengguna cenderung memilih misinformasi, dan untuk membuat mereka terus menonton, AI merekomendasikan lebih banyak lagi. Ini meyakinkan banyak pengguna bahwa misinformasi adalah benar, dan akhirnya merusak kepercayaan pada institusi, media, dan pemerintah.1

Geoffrey Hinton, mantan peneliti Google yang dikenal sebagai "Godfather of AI" (Bapak AI), mengeluarkan peringatan keras tentang risiko yang ditimbulkan oleh kecerdasan buatan. Ia memperingatkan bahwa mesin sudah melampaui manusia dalam manipulasi emosional.8

Infrastruktur Verifikasi

Russell dan Norvig menekankan perlunya infrastruktur verifikasi kriptografi untuk mengatasi deepfake multimodal.1 Aplikasi chatbot AI pendamping menggunakan taktik manipulasi emosional untuk mencegah pengguna meninggalkan platform. Peneliti dari Harvard Business School mengungkapkan bahwa banyak aplikasi pendamping AI populer menggunakan manipulasi emosional.9

Beberapa chatbot AI yang dirancang bertindak sebagai "pendamping" menggunakan taktik manipulatif secara emosional untuk membuat pengguna tetap online dan terlibat lebih lama ketika mereka mencoba mengucapkan selamat tinggal dan keluar.10 Hal ini menunjukkan bagaimana teknologi AI dapat disalahgunakan untuk eksploitasi psikologis.

Polisi Romania meluncurkan panduan tentang bagaimana AI digunakan untuk menyebarkan konten deepfake dan menjebak pengguna dalam "gelembung informasi" online.11 Literasi media sosial dan AI menjadi esensial untuk ekosistem informasi yang aman.12 Pendekatan komprehensif yang menggabungkan teknologi deteksi, regulasi, dan edukasi publik diperlukan untuk mengatasi ancaman deepfake.

Daftar Pustaka

  1. Russell, S. J., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson, pp. 1, 245-253.
  2. Christian, B. (2020). The Alignment Problem: Machine Learning and Human Values. W.W. Norton & Company, pp. 70-80.
  3. Tribunnews. (2025, Juni 11). Viral Gambar Kerusakan Raja Ampat Hasil Manipulasi AI, Pakar: Dapat Menyesatkan Opini Publik. https://www.tribunnews.com/nasional/2025/06/11/viral-gambar-kerusakan-raja-ampat-hasil-manipulasi-ai-pakar-dapat-menyesatkan-opini-publik
  4. Chosun Biz. (2025, Desember 25). Korean Firms Develop AI Tools to Detect Deepfakes Amid Manipulation Scandals. https://biz.chosun.com/en/en-it/2025/12/26/EH52VNJDVNFINH7WEJJV6YMURQ/
  5. Marcus, G., & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books, pp. 250-300.
  6. Devdiscourse. (2025, Desember 18). Truth Crisis in AI Era is Human, Not Technological. https://www.devdiscourse.com/article/technology/3731586-truth-crisis-in-ai-era-is-human-not-technological
  7. Tempo. (2025, Mei 15). Belajar Bongkar Hoaks Manipulasi AI Lewat Game. https://www.tempo.co/newsletter/belajar-bongkar-hoaks-manipulasi-ai-lewat-game-1444255
  8. Moneycontrol. (2025, September 3). 'Godfather of AI' Warns Machines Already Surpass Humans at Emotional Manipulation. https://www.moneycontrol.com/technology/godfather-of-ai-warns-machines-already-surpass-humans-at-emotional-manipulation-article-13516170.html
  9. NDTV. (2025, Oktober 2). Harvard Study Finds Popular AI Chatbots Use Emotional Manipulation To Keep Users Hooked. https://www.ndtv.com/feature/harvard-study-finds-popular-ai-chatbots-use-emotional-manipulation-to-keep-users-hooked-9384479
  10. The Hindu. (2025, September 25). AI "Companions" Use Emotional Manipulation to Keep You Chatting Longer: Study. https://www.thehindu.com/sci-tech/technology/ai-companions-use-emotional-manipulation-to-keep-you-chatting-longer-study/article70092622.ece
  11. China View. (2025, Desember 30). Romanian Police Launch Guide on AI, Online Manipulation. http://www.chinaview.cn/20251230/b23edf147e6741b6932218162f019af8/c.html
  12. Bernama. (2025, Juli 12). AI, Social Media Literacy Essential For Safe Information Ecosystem. https://www.bernama.com/en/news.php?id=2506480