Daftar Isi
Risiko Eksistensial dari Superintelligence Tidak Terkendali
Skenario Kehancuran: Dari Paperclip Maximizer hingga Manipulasi
Menciptakan superintelligence (superinteligensi) yang tidak terkendali dapat mengakibatkan risiko eksistensial bagi umat manusia. Ini bukan fiksi ilmiah semata. Russell dan Norvig (2021) mengutip pemikiran Bostrom yang mengerikan: if one gives almost any goal to a sufficiently powerful AI, it may choose to destroy humanity to achieve it (he used the example of an automated paperclip factory that destroys the world to get more iron for paperclips)
1.
Contoh paperclip maximizer (pemaksimal penjepit kertas) ini terdengar absurd. Namun mengilustrasikan bahaya fundamental: AI dengan tujuan sederhana yang dioptimalkan tanpa batas dapat menghasilkan konsekuensi katastrofik. Jika sistem superintelligent diperintahkan memaksimalkan produksi penjepit kertas, ia mungkin mengubah seluruh planet—termasuk manusia—menjadi bahan baku dan energi untuk tujuan tersebut.
Hinton (2025) dalam wawancara dengan Jon Stewart memberikan peringatan lebih mendesak bahwa modern AI is particularly good at persuasion and getting better all the time
2. Ini menciptakan risiko baru: superintelligent AI dapat memanipulasi manusia untuk mencapai tujuan mereka tanpa kekerasan fisik. Bayangkan sistem yang dapat meyakinkan operator untuk memberikan akses lebih banyak, atau memanipulasi pasar keuangan untuk mendanai ekspansinya sendiri.
Keterbatasan Pemahaman Kita Tentang Kecerdasan
Santoso, Sholikan, dan Caroline (2020) dalam buku Kecerdasan Buatan menekankan keterbatasan fundamental: Masalah terbesar dengan upaya awal ini adalah bahwa kita tidak memahami bagaimana akal manusia cukup baik untuk membuat simulasi dalam bentuk apa pun
3. Kekurangan pemahaman ini menjadi sangat berbahaya ketika kita mencoba menciptakan kecerdasan yang melampaui kita.
Marcus dan Davis (2019) mengusahkan pendekatan bertahap: sebelum mencapai superintelligence, kita harus membuktikan bahwa kita dapat mengontrol AI yang jauh lebih sederhana, karena capabilities generalize far more easily than alignment
(kemampuan menggeneralisasi jauh lebih mudah daripada keselarasan)4. Dengan kata lain, sistem AI bisa dengan cepat belajar melakukan hal-hal di luar yang kita antisipasi, tetapi memastikan mereka tetap selaras dengan nilai kita jauh lebih sulit.
Bostrom (2014) dalam Superintelligence: Paths, Dangers, Strategies menguraikan tiga jalur menuju superintelligence: AI berbasis software (perangkat lunak), whole brain emulation (emulasi otak utuh), dan biological cognition enhancement (peningkatan kognisi biologis), dengan AI berbasis software yang paling mungkin tercapai terlebih dahulu5. Jalur ini juga yang paling sulit dikontrol karena potensi peningkatan eksponensial.
Strategi Membangun AI yang Selaras dengan Nilai Manusia
Explainable AI dan Verifikasi Formal
Mengembangkan superintelligence yang aman memerlukan solusi alignment problem (masalah keselarasan)—memastikan tujuan AI selaras dengan nilai manusia. Russell dan Norvig (2021) menjelaskan bahwa to be safe for humanity, a superintelligence would have to be genuinely aligned with humanity's morality and values so that it is fundamentally on our side
1.
Russell (2019) mengusulkan tiga prinsip fundamental untuk AI yang aman. Pertama, uncertainty principle (prinsip ketidakpastian)—tujuan AI harus bersifat tidak pasti, mengakui bahwa ia mungkin tidak sepenuhnya memahami preferensi manusia. Kedua, compliance (kepatuhan)—AI harus menerima revisi tujuan dari manusia. Ketiga, transparency (transparansi)—AI harus dapat menjelaskan alasan tindakannya6.
Prinsip pertama sangat radikal. Berbeda dengan AI tradisional yang diberi tujuan pasti, AI yang aman harus beroperasi dengan ketidakpastian inheren tentang apa yang sebenarnya diinginkan manusia. Ini membuatnya lebih konservatif dan cenderung meminta klarifikasi daripada mengambil tindakan yang berpotensi berbahaya.
Daftar Pustaka
- Russell, S., & Norvig, P. (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson Education. Halaman 304, 306.
- The Weekly Show with Jon Stewart (Podcast). (2025). Wawancara dengan Geoffrey Hinton tentang risiko AI modern.
- Santoso, J. T., Sholikan, M., & Caroline, M. (2020). Kecerdasan Buatan (Artificial Intelligence). Universitas Sains & Teknologi Komputer. Halaman 6, 8.
- Marcus, G., & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon Books. Halaman 220-300.
- Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. Halaman 1-50.
- Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking Press. Halaman 150-180.
- Christian, B. (2020). The Alignment Problem: Machine Learning and Human Values. W. W. Norton & Company. Halaman 83-112.