{!-- ra:00000000000003ec0000000000000000 --}Regulasi AI πŸ€– Sektor Keuangan Inggris: Tujuh Poin Utama - SWANTE ADI KRISNA
cross
Hit enter to search or ESC to close
Regulasi AI πŸ€– Sektor Keuangan Inggris: Tujuh Poin Utama
31
October 2023

Regulasi AI πŸ€– Sektor Keuangan Inggris: Tujuh Poin Utama

  • 1
  • 31 October 2023
Regulasi AI πŸ€– Sektor Keuangan Inggris: Tujuh Poin Utama
London, 26 Oktober 2023 – Otoritas keuangan Inggris merilis respons terhadap konsultasi publik mengenai kecerdasan artifisial (Artificial Intelligence/AI), menandai langkah konkret dalam menyusun kerangka pengawasan teknologi yang tengah berkembang pesat di sektor jasa keuangan.

Bank of England, Prudential Regulation Authority (PRA), dan Financial Conduct Authority (FCA) secara kolektif menerbitkan dokumen FS2/23 yang merangkum masukan industri terhadap makalah diskusi Oktober 2022 (DP5/22).1 Dokumen ini bukan kebijakan final. Namun memberikan indikasi arah regulasi masa depan.

Pendekatan Unik Inggris: Tanpa Hukum Khusus AI

Berbeda dengan Uni Eropa yang tengah menyusun AI Act, pemerintah Inggris memilih jalur berbeda. Mereka tidak berniat membuat undang-undang khusus AI.1 Sebaliknya, prinsip panduan non-statutori akan diadaptasi oleh regulator sektoral masing-masing. Otoritas keuangan UK menjadi pelopor dalam menerjemahkan pendekatan ini ke dalam praktik nyata.

Strategi ini mencerminkan filosofi regulasi Inggris yang cenderung fleksibel. Beberapa pihak menyebutnya sebagai "regulasi ringan" namun tetap terarah pada hasil (outcomes-based). Pertanyaannya: apakah pendekatan ini cukup kuat menghadapi risiko AI yang kompleks?

Tujuh Temuan Kunci dari Respons Industri

Definisi AI: Perdebatan yang Belum Tuntas

Mayoritas responden menolak definisi AI yang terlalu spesifik untuk sektor keuangan.1 Mereka khawatir regulasi berbasis definisi teknis akan cepat usang mengingat kecepatan perkembangan teknologi. Industri lebih memilih kerangka netral-teknologi yang fokus pada prinsip dan dampak, bukan pada jenisnya.

Makalah diskusi awal mengusulkan definisi: "teori dan pengembangan sistem komputer yang mampu melakukan tugas yang sebelumnya memerlukan kecerdasan manusia". Namun definisi ini dinilai terlalu luas sekaligus terlalu sempit. Bisa mencakup teknologi sederhana, namun melewatkan inovasi baru yang belum terpikirkan.

Pendekatan Berbasis Risiko dengan Kriteria Khas UK

Responden sepakat: regulasi AI harus berbasis risiko.1 Tetapi ada perbedaan signifikan dengan pendekatan EU. Jika AI Act Eropa fokus pada dampak terhadap individu, beberapa responden menyarankan UK memasukkan risiko tambahan seperti stabilitas keuangan dan integritas pasar.

Implikasinya? Perusahaan keuangan yang beroperasi lintas Eropa-UK tidak bisa sekadar menggunakan kepatuhan AI Act sebagai "standar tertinggi". Mereka perlu menyesuaikan program kepatuhan dengan persyaratan khusus UK yang mungkin berbeda.

Aspek Regulasi πŸ“‹Pendekatan EUPendekatan UK yang Diusulkan
Fokus Risiko Utama 🎯Dampak pada hak individuStabilitas keuangan + perlindungan konsumen
Basis Hukum βš–οΈRegulasi khusus AI (AI Act)Prinsip panduan non-statutori
Definisi AI πŸ”Teknis dan spesifikNetral-teknologi, fokus dampak
Pengawasan Pihak Ketiga πŸ”—Kewajiban pada pengembang AIUji tuntas standar untuk lembaga keuangan
Tata Kelola πŸ›οΈPersyaratan struktural ketatFleksibel, pengawasan lintas-fungsi
Keselarasan Internasional 🌍Standar regional EropaHarmonisasi dengan EU + NIST Framework
Implementasi Timeline ⏰Bertahap 2024-2027Belum ditentukan (konsultasi berlanjut)

Tata Kelola Lintas-Fungsi dengan Keahlian Memadai

Tata kelola yang baik adalah kunci mengelola risiko AI.1 Namun responden terpecah soal implementasi praktisnya. Sebagian menganggap struktur tata kelola eksisting sudah cukup, sementara yang lain mengusulkan komite pengawasan AI khusus.

Yang disepakati: tim pengawas AI harus memiliki keahlian teknis yang memadai untuk mendeteksi risiko sistemik baru. Contohnya, ketika alat AI berhenti berfungsi, tim harus cepat menilai apakah itu akibat insiden keamanan siber aktif atau sekadar kegagalan teknis biasa. Respons yang tepat sangat bergantung pada diagnosis akurat.

Pengawasan Penyedia Pihak Ketiga

Banyak lembaga keuangan menggunakan alat AI dari vendor eksternal.1 Ini menciptakan tantangan pengawasan karena vendor tersebut sering kali berada di luar yurisdiksi regulator keuangan UK. Responden mengusulkan vendor wajib memberikan informasi tentang pengembangan yang bertanggung jawab dan profil risiko produk mereka.

Solusi yang muncul: standarisasi persyaratan uji tuntas (due diligence) AI yang harus dipenuhi perusahaan sebelum mengadopsi alat pihak ketiga. Tapi bagaimana memaksa vendor global mematuhi standar UK? Pertanyaan ini belum terjawab tuntas dalam dokumen respons.

Keselarasan dengan Hukum Domestik dan Internasional

Responden sangat menekankan pentingnya konsistensi.1 Regulasi AI masa depan harus selaras dengan undang-undang domestik seperti Equality Act 2010 dan peraturan ketahanan operasional yang sudah ada. Mereka juga menginginkan harmonisasi dengan kerangka internasional seperti EU AI Act dan NIST AI Risk Management Framework.

Alasannya pragmatis: perbedaan regulasi lintas yurisdiksi bisa melemahkan daya saing UK. Mengingat FCA dan PRA kini memiliki mandat sekunder untuk mendukung pertumbuhan dan daya saing internasional UK, masukan ini sangat relevan.

GDPR UK: Tantangan Khusus dalam Adopsi AI

Sejumlah responden menunjuk General Data Protection Regulation (GDPR) UK sebagai hambatan spesifik.1 Kompleksitas mencapai kepatuhan GDPR saat mengadopsi AI memang bukan isu baru. Otoritas perlindungan data Prancis (CNIL) bahkan telah menerbitkan lembar fakta untuk membantu perusahaan mencapai kepatuhan GDPR dalam konteks AI.

Otoritas keuangan UK bisa belajar dari sumber daya eksisting semacam itu ketika mengembangkan panduan masa depan. Namun pertanyaannya: apakah panduan saja cukup, atau perlu penyesuaian regulasi yang lebih mendasar?

AI sebagai Ancaman dari Aktor Jahat

Beberapa responden mengingatkan: regulasi tidak boleh hanya fokus pada dampak perusahaan keuangan menggunakan AI, tetapi juga bagaimana aktor jahat memanfaatkan AI untuk menyerang mereka.1 Teknologi AI bisa digunakan untuk penipuan (melalui deepfake), pencucian uang, dan serangan siber (seperti email phishing yang lebih realistis berkat AI generatif).

Meski risiko ini bukan baru sama sekali, akses luas ke alat AI bisa menyebabkan proliferasi serangan. Bank dan lembaga keuangan perlu bersiap dengan langkah-langkah anti-penipuan yang lebih canggih.

Langkah Praktis untuk Perusahaan Keuangan

Meskipun regulasi final belum jelas, perusahaan keuangan bisa mulai mempersiapkan diri.1 Membentuk komite pengawasan lintas-fungsi untuk AI adalah langkah awal yang baik. Komite ini akan mengawasi dan memandu penggunaan alat AI perusahaan, termasuk yang berasal dari vendor.

Selanjutnya, perusahaan bisa mengembangkan kebijakan terkait pengawasan komite tersebut. Ini mencakup: membuat inventaris alat AI yang diakses perusahaan beserta kasus penggunaannya, mengembangkan kerangka penilaian risiko, dan menentukan cara mengidentifikasi serta memitigasi kasus penggunaan AI berisiko tinggi.

Banyak komponen kewajiban tata kelola AI masa depan akan memerlukan peningkatan signifikan dalam anggaran kepatuhan dan sumber daya tambahan. Perusahaan yang bijak mulai mengalokasikan ini dalam perencanaan anggaran mereka. Terutama karena tahun 2024 sudah dekat ketika dokumen respons ini dipublikasikan.

Terakhir, perusahaan perlu mempertimbangkan bagaimana AI memengaruhi ketahanan operasional mereka. Rencana kontinuitas bisnis harus diperbarui untuk mengantisipasi gangguan baru yang disebabkan oleh ketergantungan pada AI untuk fungsi bisnis inti. Bagi perusahaan yang juga diregulasi di EU, ini sangat penting mengingat persyaratan dalam Digital Operational Resilience Act yang mulai berlaku Januari 2025.

Kesimpulan

Respons terhadap konsultasi AI sektor keuangan UK mengungkap preferensi industri yang jelas: regulasi berbasis prinsip dan netral-teknologi, bukan aturan teknis yang kaku. Namun jalan menuju regulasi final masih panjang. Perbedaan pendekatan dengan EU menambah kompleksitas bagi perusahaan multinasional.

Yang pasti, era regulasi AI di sektor keuangan sudah dimulai. Perusahaan yang proaktif membangun kerangka tata kelola AI sejak dini akan berada dalam posisi lebih baik ketika regulasi formal akhirnya diberlakukan. Waktu untuk bertindak adalah sekarang, bukan nanti ketika regulasi sudah di depan mata.

Daftar Pustaka

  • Gesser, A. (2023, 31 Oktober). UK Financial Regulators Publish Response to AI Consultation – Seven Takeaways. Debevoise Data Blog. https://www.debevoisedatablog.com/2023/10/31/uk-financial-regulators-publish-response-to-ai-consultation-seven-takeaways/
Download PDF tentang Kerangka Regulasi Kecerdasan A (telah di download 1 kali)
  • Regulasi AI πŸ€– Sektor Keuangan Inggris: Tujuh Poin Utama
    Penelitian ini menganalisis dokumen respons konsultasi publik FS2/23 yang diterbitkan oleh otoritas keuangan Inggris mengenai regulasi kecerdasan artifisial dalam sektor jasa keuangan, mengeksplorasi preferensi industri terhadap pendekatan netral-teknologi berbasis prinsip serta membandingkan divergensi dengan kerangka regulasi Uni Eropa.
Penulis
Swante Adi Krisna
Penikmat musik Ska, Reggae dan Rocksteady sejak 2004. Gooners sejak 1998. Blogger dan SEO paruh waktu sejak 2014. Graphic Designer autodidak sejak 2001. Website Programmer autodidak sejak 2003. Woodworker autodidak sejak 2024. Sarjana Hukum Pidana dari salah satu Perguruan Tinggi Negeri di Surakarta. Magister Hukum Pidana di bidang cybercrime dari salah satu Perguruan Tinggi Swasta di Surakarta. Magister Kenotariatan di bidang hukum teknologi, khususnya cybernotary dari salah satu Perguruan Tinggi Negeri di Surakarta. Bagian dari Keluarga Besar Kementerian Pertahanan Republik Indonesia.