Peneliti dari CSIRO, Federation University Australia, dan RMIT University berhasil mengembangkan metode baru bernama RAIS (Rehearsal with Auxiliary-Informed Sampling) untuk mendeteksi audio deepfake (audio palsu berbasis AI).1 Teknologi ini menjawab ancaman kejahatan siber yang kian meningkat. Tingkat kesalahan rata-rata hanya 1,95 persen. Luar biasa, bukan?
Kasus nyata terjadi di Italia awal tahun ini. Suara kloning AI dari Menteri Pertahanan Italia meminta "tebusan" โฌ1 juta kepada para pemimpin bisnis terkemuka.2 Beberapa bahkan terperdaya hingga membayar. Ini bukan skenario filmโini realitas yang mengkhawatirkan.
Bagaimana RAIS Bekerja?
Dr. Kristen Moore dari CSIRO Data61 menjelaskan tantangan utamanya. Kami ingin sistem deteksi ini mempelajari deepfake baru tanpa harus melatih model dari awal,
ujarnya.3 Kalau hanya di-fine-tune dengan sampel baru, model akan "lupa" deepfake lama yang sudah dikenalinya.
RAIS menggunakan proses seleksi cerdas. Jaringan khusus menghasilkan auxiliary labels (label tambahan) untuk setiap sampel audio. Label ini membantu mengidentifikasi set audio yang beragam dan representatif.4 Bukan sekadar tag "asli" atau "palsu". Ada ciri-ciri audio tersembunyi yang bahkan manusia tak menyadarinya.
Dampak Global dan Urgensi Penanganan
Google memperingatkan bahwa deepfake berbasis AI menjadi risiko keamanan utama, khususnya di India.5 Penipuan menggunakan audio manipulasi dalam skema digital arrest scams meningkat drastis. Pelaku kejahatan semakin cepat beradaptasi dengan teknologi baru.
Falih Gozi Febrinanto, lulusan PhD dari Federation University Australia, menegaskan: Audio deepfake berkembang sangat cepat, dan metode deteksi tradisional tidak mampu mengimbanginya.
6 RAIS membantu model mempertahankan apa yang sudah dipelajari sekaligus beradaptasi dengan serangan baru.
| ๐ Aspek | ๐ Detail RAIS |
|---|---|
| Pengembang | CSIRO, Federation University, RMIT |
| Nama Teknik | Rehearsal with Auxiliary-Informed Sampling |
| Tingkat Kesalahan | 1,95% (terendah di kelasnya) |
| Jumlah Pengalaman Diuji | 5 sekuens berbeda |
| Ketersediaan Kode | Open source di GitHub |
| Keunggulan Utama | Tidak melupakan deepfake lama |
| Aplikasi | Autentikasi biometrik, anti-disinformasi |
Implikasi untuk Keamanan Digital
Perusahaan kini dipaksa membangun ulang kepercayaan akibat ancaman deepfake.7 Verifikasi keaslian menjadi prioritas. Bukan hanya soal uangโdeepfake juga merampas martabat korban.
Beberapa selebritas Hollywood seperti Morgan Freeman dan Scarlett Johansson sudah angkat bicara menentang kloning suara tanpa izin.8 Freeman bahkan menyebut praktik tersebut sebagai "perampokan". Di sisi lain, Matthew McConaughey dan Michael Caine justru bermitra dengan ElevenLabs untuk lisensi suara mereka secara etis.9
Dr. Moore menyimpulkan: Pendekatan kami tidak hanya meningkatkan performa deteksi, tetapi juga membuat pembelajaran berkelanjutan praktis untuk aplikasi dunia nyata.
10 RAIS menetapkan standar baru untuk efisiensi dan keandalan.
Kesimpulan
RAIS merupakan terobosan signifikan dalam perang melawan audio deepfake. Dengan akurasi mencapai 98,05 persen dan kemampuan adaptasi terhadap ancaman baru, teknologi ini menjadi harapan baru bagi keamanan digital global. Kode sumber tersedia di GitHub untuk pengembangan lebih lanjut.
Daftar Pustaka
- CSIRO. (2025, 21 November). New AI technique sounding out audio deepfakes. AIhub. https://aihub.org/2025/11/21/new-ai-technique-sounding-out-audio-deepfakes/
- Ibid.
- Ibid.
- Loc. Cit.
- CNBC TV18. (2025, 20 November). Google warns AI-driven deepfakes emerging as major security risk for India. https://www.cnbctv18.com/technology/ai-deepfake-scams-google-calls-for-multi-layered-safety-19767930.htm
- CSIRO, Op. Cit.
- MSN News. (2025, 11 November). AI Deepfakes Are Forcing Companies to Rebuild Trust. https://www.msn.com/en-us/money/other/ai-deepfakes-are-forcing-companies-to-rebuild-trust/ar-AA1QajU2
- Starts at 60. (2025, 13 November). Hollywood stars fight back against AI-generated images and voice cloning. https://startsat60.com/media/news/hollywood-stars-fight-back-against-ai-generated-images-and-voice-cloning
- MSN Entertainment. (2025, 11 November). Matthew McConaughey, Michael Caine clone their voices in partnership with AI audio company. https://www.msn.com/en-us/entertainment/entertainment-celebrity/matthew-mcconaughey-michael-caine-sell-their-voices-to-ai-podcast-company/ar-AA1QhLwu
- CSIRO, Op. Cit.


