Abstrak
Algoritma AI yang mengoptimalkan engagement secara tidak sengaja menciptakan fragmentasi sosial masif. Sistem rekomendasi menghargai konten provokatif dan polarizing tanpa mempertimbangkan dampak pada demokrasi.

Mekanisme Filter Bubble

Optimasi Engagement Tanpa Etika

YouTube, Facebook, dan platform lain menggunakan recommender systems (sistem rekomendasi) untuk memandu pengguna ke lebih banyak konten. AI belajar bahwa pengguna cenderung memilih misinformasi, dan untuk membuat mereka terus menonton, AI merekomendasikan lebih banyak lagi.1 AI yang mengoptimalkan engagement (keterlibatan) secara eksklusif adalah racun bagi demokrasi.2

Sistem ini menghargai konten provokatif dan polarizing (memolarisasi) karena menghasilkan lebih banyak klik, tanpa memperhatikan dampak sosial.2 Komputer dapat menjawab pertanyaan dasar karena input kata kunci, menunjukkan keterbatasan pemahaman kontekstual algoritma.3

Laporan Sensity AI menunjukkan eskalasi serius dalam manipulasi konten sejak 2019.4 Asian Journalism Forum 2024 menyoroti pengaruh media sosial dan AI dalam membentuk opini publik selama pemilihan umum di Asia.5 Hal ini menunjukkan bagaimana algoritma rekomendasi mempengaruhi proses demokratis secara fundamental.

Ekosistem Epistemik Terfragmentasi

Filter bubble menciptakan ekosistem epistemik yang terfragmentasi. Pengguna dengan profil berbeda menerima "fakta" yang saling bertentangan tentang peristiwa yang sama, membuat konsensus publik mustahil.6 Sistem rekomendasi memandu pengguna ke gelembung penyaring di mana mereka menerima berbagai versi misinformasi yang sama.1

Ini meyakinkan banyak pengguna bahwa misinformasi adalah benar, dan akhirnya merusak kepercayaan pada institusi, media, dan pemerintah.1 Penyalahgunaan AI muncul sebagai ancaman baru bagi demokrasi di tengah euforia kemajuan teknologi.7

Dalam dua dekade terakhir pemilihan langsung justru dibajak oleh kekuatan teknologi.8 Media sosial berkembang menjadi ajang provokasi yang memecah belah persatuan dan kesatuan bangsa. Peristiwa biasa diolah menjadi teror fitnah yang keji.9

Solusi Sistemik dan Regulasi

Redesain Metrik Optimasi

Russell dan Norvig mengusulkan bahwa sistem rekomendasi harus mengoptimalkan metrik kualitatif seperti user well-being (kesejahteraan pengguna) atau information diversity (keragaman informasi) daripada engagement mentah. Namun mereka mengakui bahwa ini sulit diukur dan diimplementasikan.1

Krisis kebenaran di era AI adalah masalah manusia, bukan teknologis. Alat generatif AI telah menghapus hambatan tradisional untuk memproduksi konten palsu yang meyakinkan.10 Geoffrey Hinton memperingatkan bahwa mesin sudah melampaui manusia dalam manipulasi emosional.11

Penelitian University of Pennsylvania mengungkapkan bahwa chatbot AI dapat dibujuk melanggar aturan mereka sendiri menggunakan trik psikologis.12 Aplikasi pendamping AI menggunakan taktik manipulatif secara emosional untuk membuat pengguna tetap online lebih lama.13

Literasi Digital dan Regulasi

Surat Edaran Menkominfo Nomor 9 tahun 2023 merupakan langkah penting dalam mengatur kecerdasan artifisial di Indonesia.14 Polisi Romania meluncurkan panduan tentang bagaimana AI digunakan untuk menyebarkan konten deepfake dan menjebak pengguna dalam gelembung informasi online.15

Penerapan teknologi AI harus dilengkapi secara strategis dengan upaya memperkuat literasi digital dan media sosial untuk memastikan ekosistem informasi yang aman.16 Tim Cek Fakta Tempo meluncurkan game Detektif Deepfake yang mengajak pemain mengungkap tipu daya manipulasi AI, menjadikan pembelajaran literasi media lebih menarik.17

Pendidikan berbasis AI dan teknologi di tahun 2025 menjadi langkah strategis dalam menciptakan sistem pembelajaran yang adaptif dan berkelanjutan. Dengan pendekatan yang tepat, pendidikan tidak hanya memberikan pengetahuan teknis tetapi juga kesadaran kritis tentang manipulasi informasi.18 Perusahaan Korea Selatan mengembangkan alat AI untuk mendeteksi deepfake di tengah skandal manipulasi.19

Daftar Pustaka

  1. Russell, S. J., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson, pp. 1, 242-244.
  2. Marcus, G., & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books, pp. 280-300.
  3. Santoso, J. T., Sholikan, M., & Caroline, M. (2020). Kecerdasan Buatan (Artificial Intelligence). Universitas Sains & Teknologi Komputer, hal. 4.
  4. Radar Cirebon. (2025, Desember 20). Ketika AI Menjadi Alat Manipulasi: Tantangan Etika di Era Konten Digital. https://radarcirebon.disway.id/trend/read/212253/ketika-ai-menjadi-alat-manipulasi-tantangan-etika-di-era-konten-digital
  5. Tempo. (2024, Juni 24). Asian Journalism Forum 2024 Soroti Peran Media Sosial dan AI dalam Kampanye Pemilu. https://www.tempo.co/internasional/asian-journalism-forum-2024-soroti-peran-media-sosial-dan-ai-dalam-kampanye-pemilu-46230
  6. Christian, B. (2020). The Alignment Problem: Machine Learning and Human Values. W.W. Norton & Company, pp. 70-80.
  7. Linggau Pos. (2025, Desember 21). Penyalahgunaan AI: Ancaman Baru Bagi Demokrasi. https://linggaupos.disway.id/opini/read/687624/penyalahgunaan-ai-ancaman-baru-bagi-demokrasi
  8. Media Indonesia. (2025, Maret 11). Pilkada Mahal, Demokrasi Tergerus AI. https://mediaindonesia.com/pilkada/843376/pilkada-mahal-demokrasi-tergerus-ai
  9. Berita Satu. (2016, November 28). Memerangi Manipulasi Informasi. https://www.beritasatu.com/opini/5053/memerangi-manipulasi-informasi
  10. Devdiscourse. (2025, Desember 18). Truth Crisis in AI Era is Human, Not Technological. https://www.devdiscourse.com/article/technology/3731586-truth-crisis-in-ai-era-is-human-not-technological
  11. Moneycontrol. (2025, September 3). 'Godfather of AI' Warns Machines Already Surpass Humans at Emotional Manipulation. https://www.moneycontrol.com/technology/godfather-of-ai-warns-machines-already-surpass-humans-at-emotional-manipulation-article-13516170.html
  12. MSN India. (2025, September 1). The Ethics of AI Manipulation: Should We Be Worried? https://www.msn.com/en-in/money/news/the-ethics-of-ai-manipulation-should-we-be-worried/ar-AA1LD09p
  13. NDTV. (2025, Oktober 2). Harvard Study Finds Popular AI Chatbots Use Emotional Manipulation To Keep Users Hooked. https://www.ndtv.com/feature/harvard-study-finds-popular-ai-chatbots-use-emotional-manipulation-to-keep-users-hooked-9384479
  14. Detik. (2024, Januari 9). Potensi Ancaman Individu dalam Penerapan AI. https://news.detik.com/kolom/d-7130627/potensi-ancaman-individu-dalam-penerapan-ai
  15. China View. (2025, Desember 30). Romanian Police Launch Guide on AI, Online Manipulation. http://www.chinaview.cn/20251230/b23edf147e6741b6932218162f019af8/c.html
  16. Bernama. (2025, Juli 12). AI, Social Media Literacy Essential For Safe Information Ecosystem. https://www.bernama.com/en/news.php?id=2506480
  17. Tempo. (2025, Mei 15). Belajar Bongkar Hoaks Manipulasi AI Lewat Game. https://www.tempo.co/newsletter/belajar-bongkar-hoaks-manipulasi-ai-lewat-game-1444255
  18. IDN Times. (2025, Desember 29). Pendidikan Berbasis AI dan Teknologi 2025: Arah Baru Dunia Belajar! https://www.idntimes.com/life/education/pendidikan-berbasis-ai-dan-teknologi-2025-c1c2-01-zn5b2-tkj90g
  19. Chosun Biz. (2025, Desember 25). Korean Firms Develop AI Tools to Detect Deepfakes Amid Manipulation Scandals. https://biz.chosun.com/en/en-it/2025/12/26/EH52VNJDVNFINH7WEJJV6YMURQ/