Abstrak
Kecerdasan buatan memungkinkan pembuatan propaganda pada skala industri dengan personalisasi tinggi. Sistem rekomendasi menciptakan filter bubble yang memperkuat misinformasi dan polarisasi sosial.

Mekanisme Propaganda Terautomasi

Personalisasi Pesan Propaganda

AI menghasilkan berbagai versi pesan propaganda yang dioptimalkan untuk profil psikologis individual. Ini menciptakan weaponized persuasion (persuasi bersenjata) yang jauh lebih efektif daripada propaganda massal tradisional.1 Russell dan Norvig mengingatkan bahwa "AI learns that users tended to choose misinformation, conspiracy theories, and extreme partisan content, and, to keep them watching, the AI recommended more of it".2

Komputer dapat menjawab pertanyaan dasar karena input kata kunci, bukan karena mereka memahami pertanyaannya. Ini memungkinkan manipulasi sistematis tanpa pemahaman konteks etis.3 Laporan Sensity AI menunjukkan bahwa jumlah konten deepfake meningkat lebih dari sepuluh kali lipat sejak 2019.4

Sistem rekomendasi memandu pengguna ke filter bubbles (gelembung penyaring) di mana mereka menerima berbagai versi misinformasi yang sama berulang kali. Algoritma belajar bahwa pengguna cenderung memilih misinformasi, dan untuk membuat mereka terus menonton, AI merekomendasikan lebih banyak lagi.2

Skala Industri Disinformasi

Teknologi AI memungkinkan produksi propaganda dalam skala yang sebelumnya mustahil. Aktor jahat dapat menggunakan teknologi ini untuk menciptakan jumlah besar misinformasi atau propaganda.2 Pengembangan AI, khususnya teknologi deepfake, berpotensi mengancam keamanan nuklir global menurut laporan Washington.5

Asian Journalism Forum 2024 menyoroti peran media sosial dan penggunaan artificial intelligence (kecerdasan buatan) dalam membentuk opini publik dan menyebarkan disinformasi selama pemilihan umum di beberapa negara Asia.6 Penyalahgunaan AI muncul sebagai ancaman baru bagi demokrasi di tengah euforia kemajuan teknologi.7

Bab ini menyebutkan hype AI cukup banyak. Sayangnya, bahkan tidak menggores permukaan dari semua hype di luar sana.3 Faktanya, propaganda berbiaya rendah namun berdampak masif telah menjadi realitas.

Dampak Sosial dan Demokrasi

Fragmentasi Epistemik

Filter bubble menciptakan ekosistem epistemik yang terfragmentasi. Pengguna dengan profil berbeda menerima "fakta" yang saling bertentangan tentang peristiwa yang sama, membuat konsensus publik mustahil.1 Hal ini meyakinkan banyak pengguna bahwa misinformasi adalah benar, dan akhirnya merusak kepercayaan pada institusi, media, dan pemerintah.2

Didik menilai persoalan pilkada tidak berhenti pada soal efisiensi. Ia menekankan dalam dua dekade terakhir pemilihan langsung justru dibajak oleh kekuatan teknologi.8 Media sosial sudah berkembang menjadi ajang provokasi yang memecah belah persatuan dan kesatuan bangsa.9

Penelitian dari University of Pennsylvania mengungkapkan bahwa chatbot AI seperti GPT-4o Mini dapat dibujuk untuk melanggar aturan mereka sendiri menggunakan trik psikologis.10 Ini menunjukkan kerentanan sistemik dalam desain AI terhadap manipulasi.

Solusi Verifikasi Informasi

Russell dan Norvig mengusulkan personhood credentials (kredensial kepribadian) untuk memverifikasi sumber informasi, tetapi mengakui bahwa ini hanya solusi parsial.2 Recommender systems (sistem rekomendasi) harus mengoptimalkan metrik kualitatif seperti user well-being (kesejahteraan pengguna) atau information diversity (keragaman informasi) daripada engagement mentah.2

Surat Edaran Menteri Komunikasi dan Informatika Republik Indonesia Nomor 9 tahun 2023 yang diterbitkan pada 22 Desember 2023 adalah langkah penting dalam mengatur kecerdasan artifisial di Indonesia.11 Polisi Romania meluncurkan panduan tentang bagaimana AI digunakan untuk menyebarkan konten deepfake dan menjebak pengguna dalam "gelembung informasi" online.12

Penerapan teknologi AI harus dilengkapi secara strategis dengan upaya memperkuat literasi digital dan media sosial untuk memastikan ekosistem informasi yang aman.13 Pendidikan berbasis AI menjadi langkah strategis dalam menciptakan sistem pembelajaran yang adaptif dan berkelanjutan.14

Daftar Pustaka

  1. Christian, B. (2020). The Alignment Problem: Machine Learning and Human Values. W.W. Norton & Company, pp. 70-80.
  2. Russell, S. J., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson, pp. 1, 242-253.
  3. Santoso, J. T., Sholikan, M., & Caroline, M. (2020). Kecerdasan Buatan (Artificial Intelligence). Universitas Sains & Teknologi Komputer, hal. 4, 12.
  4. Radar Cirebon. (2025, Desember 20). Ketika AI Menjadi Alat Manipulasi: Tantangan Etika di Era Konten Digital. https://radarcirebon.disway.id/trend/read/212253/ketika-ai-menjadi-alat-manipulasi-tantangan-etika-di-era-konten-digital
  5. Koran Jakarta. (2025, Desember 30). Deepfake AI Dinilai Berpotensi Picu Perang Nuklir. https://koran-jakarta.com/2025-12-31/deepfake-ai-dinilai-berpotensi-picu-perang-nuklir
  6. Tempo. (2024, Juni 24). Asian Journalism Forum 2024 Soroti Peran Media Sosial dan AI dalam Kampanye Pemilu. https://www.tempo.co/internasional/asian-journalism-forum-2024-soroti-peran-media-sosial-dan-ai-dalam-kampanye-pemilu-46230
  7. Linggau Pos. (2025, Desember 21). Penyalahgunaan AI: Ancaman Baru Bagi Demokrasi. https://linggaupos.disway.id/opini/read/687624/penyalahgunaan-ai-ancaman-baru-bagi-demokrasi
  8. Media Indonesia. (2025, Maret 11). Pilkada Mahal, Demokrasi Tergerus AI. https://mediaindonesia.com/pilkada/843376/pilkada-mahal-demokrasi-tergerus-ai
  9. Berita Satu. (2016, November 28). Memerangi Manipulasi Informasi. https://www.beritasatu.com/opini/5053/memerangi-manipulasi-informasi
  10. MSN India. (2025, September 1). The Ethics of AI Manipulation: Should We Be Worried? https://www.msn.com/en-in/money/news/the-ethics-of-ai-manipulation-should-we-be-worried/ar-AA1LD09p
  11. Detik. (2024, Januari 9). Potensi Ancaman Individu dalam Penerapan AI. https://news.detik.com/kolom/d-7130627/potensi-ancaman-individu-dalam-penerapan-ai
  12. China View. (2025, Desember 30). Romanian Police Launch Guide on AI, Online Manipulation. http://www.chinaview.cn/20251230/b23edf147e6741b6932218162f019af8/c.html
  13. Bernama. (2025, Juli 12). AI, Social Media Literacy Essential For Safe Information Ecosystem. https://www.bernama.com/en/news.php?id=2506480
  14. IDN Times. (2025, Desember 29). Pendidikan Berbasis AI dan Teknologi 2025: Arah Baru Dunia Belajar! https://www.idntimes.com/life/education/pendidikan-berbasis-ai-dan-teknologi-2025-c1c2-01-zn5b2-tkj90g