cross
Tekan Enter untuk mencari atau ESC untuk menutup
4
Januariuary 2026

Transparansi dan Explainability dalam Sistem Kecerdasan Buatan Otonom

  • 38 tayangan
  • 04 Januari 2026
Transparansi dan Explainability dalam Sistem Kecerdasan Buatan Otonom Sistem AI otonom kini membuat keputusan kritis tanpa pemahaman penuh manusia. Teknik explainability seperti SHAP dan LIME dikembangkan untuk membongkar kotak hitam algoritma, namun trade-off antara akurasi dan interpretabilitas tetap menjadi tantangan fundamental dalam deployment sistem otonom yang aman.

Krisis Black Box dalam Keputusan Otonom

Keterbatasan Pemahaman Fundamental

Kecerdasan buatan yang otonom menciptakan paradoks mendasar. "Masalah terbesar dengan upaya awal ini (dan masih menjadi masalah yang cukup besar hingga saat ini) adalah bahwa kita tidak memahami bagaimana akal manusia cukup baik untuk membuat simulasi dalam bentuk apa pun"1. Sistem ini beroperasi diluar jangkauan observasi langsung manusia.

Deep neural networks memperparah situasi. "It is impossible to be certain that a program is operating correctly if no one knows how exactly it works. Particularly with deep neural networks, in which there are many non-linear relationships between inputs and outputs"2. Hubungan non-linear menciptakan kompleksitas eksponensial yang sulit dipetakan.

Kasus diagnosis kanker kulit menunjukkan bahaya tersembunyi. Sistem ternyata tidak belajar dari gambar tumor tetapi dari penggaris yang selalu ada dalam gambar kanker3. Discovery ini hanya mungkin melalui teknik explainability (kemampuan dijelaskan) yang canggih. Tanpa audit mendalam, sistem medis otonom ini akan terus memberikan diagnosis berbasis artefak visual, bukan patologi sebenarnya.

DARPA dan Urgensi Militer

Program XAI (Explainable Artificial Intelligence) diluncurkan DARPA tahun 2014 merespons kebutuhan kritis3. AI otonom di medan perang yang tidak dapat dijelaskan terlalu berisiko untuk deployment operasional. Keputusan hidup-mati memerlukan akuntabilitas penuh.

Industri otomotif menghadapi dilema serupa. Oxbotica memanfaatkan artificial intelligence (kecerdasan buatan) untuk mengembangkan sistem otonom pada kendaraan listrik dengan fokus pada transparansi algoritma4. Teknologi ini memerlukan explainability untuk memenuhi standar keselamatan regulasi internasional. Kendaraan otonom harus dapat menjelaskan setiap keputusan navigasi dalam situasi kritis.

"Modifikasi tujuan berdasarkan data baru dan pengaruhnya terhadap probabilitas keberhasilan"1 menjadi prinsip adaptasi sistem otonom. Feedback loop memungkinkan perbaikan berkelanjutan, namun tanpa transparansi, modifikasi ini dapat menghasilkan perilaku emergent yang tidak terprediksi.

Teknik Membongkar Algoritma Kompleks

SHAP dan LIME sebagai Solusi Parsial

Dua pendekatan dominan muncul untuk mengatasi black box problem (masalah kotak hitam). "SHAP enables to visualise the contribution of each feature to the output. LIME can locally approximate a model's outputs with a simpler, interpretable model"2. Keduanya menawarkan jendela terbatas ke proses internal.

LIME melakukan perturbasi input untuk melihat bagaimana prediksi berubah, menciptakan penjelasan lokal yang dapat dipahami manusia untuk setiap keputusan model5. Metode ini seperti melakukan eksperimen what-if (bagaimana-jika) pada setiap prediksi. SHAP menggunakan teori game Shapley values (nilai Shapley permainan) untuk mengalokasikan kontribusi setiap fitur secara adil dan konsisten6.

Namun solusi ini hanya memberikan approximations. Tidak ada jaminan bahwa penjelasan ini mencerminkan proses sebenarnya dalam jaringan saraf yang complex (kompleks)7. Kita melihat bayangan di dinding gua, bukan objek aslinya. Kolaborasi PT TKDN dengan MooVita dan MABI dalam menciptakan sistem keselamatan kendaraan otonom mengintegrasikan teknik explainability untuk audit real-time8.

Trade-off Fundamental Akurasi versus Interpretabilitas

Trade-off (pertukaran) antara accuracy (akurasi) dan interpretability (interpretabilitas) sering ada. Model yang lebih akurat cenderung lebih tidak dapat dijelaskan2. Ini menciptakan dilema etis dalam aplikasi kritis seperti diagnosis medis atau keputusan hukum.

"Belajar: Memiliki kemampuan untuk memperoleh dan mengolah informasi baru"1 adalah prinsip dasar AI, tetapi pembelajaran mendalam menghasilkan representasi internal yang sulit diterjemahkan ke bahasa manusia. Lima tingkatan teknologi kendaraan otonom menunjukkan gradasi kompleksitas dari asistensi pengemudi hingga full autonomy (otonomi penuh)9.

BRIN mengklaim teknologi kendaraan otonom Indonesia berada di antara level 3 dan 4, dimana sistem dapat menangani sebagian besar situasi mengemudi secara mandiri9. Level ini memerlukan explainability yang lebih tinggi karena transisi kontrol antara sistem dan manusia menjadi kritis. Jaguar Land Rover bermitra dengan NVIDIA mengembangkan sistem mengemudi otonom dan layanan berbasis AI dengan fokus pada transparansi keputusan algoritmik10.

Daftar Pustaka

  1. Santoso, J. T., Sholikan, M., & Caroline, M. (2020). Kecerdasan buatan (artificial intelligence). Universitas Sains & Teknologi Komputer.
  2. Russell, S. J., & Norvig, P. (2021). Artificial intelligence: A modern approach (4th ed.). Pearson.
  3. Christian, B. (2020). The alignment problem: Machine learning and human values. W.W. Norton & Company.
  4. Tribunnews.com. (2022, Juni 17). Oxbotica Lirik Artificial Intelligence untuk Kembangkan Sistem Otonom Pada Kendaraan Listrik. https://www.tribunnews.com/new-economy/2022/06/17/oxbotica-lirik-artificial-intelligence-untuk-kembangkan-sistem-otonom-pada-kendaraan-listrik
  5. Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). Why should I trust you?: Explaining the predictions of any classifier. Proceedings of KDD'16, 1135-1144.
  6. Lundberg, S. M., & Lee, S. I. (2017). A unified approach to interpreting model predictions. Nature Machine Intelligence.
  7. Marcus, G., & Davis, E. (2019). Rebooting AI: Building artificial intelligence we can trust. Pantheon Books.
  8. Kompas.com. (2023, Februari 23). Perusahaan Ini Kolaborasi Ciptakan Sistem Keselamatan pada Kendaraan Otonom. https://otomotif.kompas.com/read/2023/02/23/171200315/perusahaan-ini-kolaborasi-ciptakan-sistem-keselamatan-pada-kendaraan-otonom
  9. Tempo.co. (2025, Januari 18). Dari 5 Level Kendaraan Otonom, BRIN Klaim Ada di Antara 3 dan 4. https://www.tempo.co/sains/dari-5-level-kendaraan-otonom-brin-klaim-ada-di-antara-3-dan-4-1195748
  10. Tempo.co. (2022, Februari 20). Jaguar Land Rover Bermitra dengan NVIDIA, Kembangkan Sistem Otonom. https://www.tempo.co/arsip/jaguar-land-rover-bermitra-dengan-nvidia-kembangkan-sistem-otonom-423969
PROFIL PENULIS
Swante Adi Krisna
Penggemar musik Ska, Reggae dan Rocksteady sejak 2004. Gooner sejak 1998. Blogger dan SEO spesialis paruh waktu sejak 2014. Perancang Grafis otodidak sejak 2001. Pemrogram Website otodidak sejak 2003. Tukang Kayu otodidak sejak 2024. Sarjana Hukum Pidana dari Universitas Negeri di Surakarta, Jawa Tengah, Indonesia. Magister Hukum Pidana dalam bidang kejahatan dunia maya dari Universitas Swasta di Surakarta, Jawa Tengah, Indonesia. Magister Kenotariatan dalam bidang hukum teknologi, khususnya cybernotary dari Universitas Negeri di Surakarta, Jawa Tengah, Indonesia. Bagian dari Keluarga Kementerian Pertahanan Republik Indonesia.