{!-- ra:00000000000003ec0000000000000000 --}Ancaman Deepfake 🎬 terhadap Autentikasi Bukti Hukum - SWANTE ADI KRISNA
cross
Hit enter to search or ESC to close
Ancaman Deepfake 🎬 terhadap Autentikasi Bukti Hukum
23
June 2025

Ancaman Deepfake 🎬 terhadap Autentikasi Bukti Hukum

  • 1
  • 23 June 2025
Ancaman Deepfake 🎬 terhadap Autentikasi Bukti Hukum

Teknologi Generative AI (AI Generatif) kini menghadirkan tantangan serius dalam sistem peradilan. 1 Kemampuan menciptakan deepfake (pemalsuan digital) audiovisual menimbulkan kekhawatiran ganda: pihak-pihak dapat mengajukan bukti palsu sebagai asli, atau sebaliknya, menolak bukti asli dengan dalih pemalsuan. Dalam kedua kasus tersebut, genAI merusak kepercayaan pada litigasi dan berpotensi membuat semua bukti menjadi mencurigakan.

Respons Komite Advisory Federal Rules of Evidence

Federal Rules of Evidence Advisory Committee sedang mempertimbangkan amandemen terhadap Rule 901. 2 Aturan 901 saat ini menetapkan bahwa bukti dianggap autentik jika ada dasar yang cukup untuk menemukan bahwa bukti tersebut sesuai dengan klaim pengaju. Kalangan hukum semakin khawatir bahwa standar ini terlalu rendah, terutama mengingat autentisitas merupakan persyaratan ambang batas untuk admisibilitas.

Bahkan sarjana yang sebelumnya mengkritik amandemen khusus genAI untuk pasal 901, seperti Professor Wexler dari Berkeley Law, kini mendukung perubahan tersebut. Namun realitas di lapangan menunjukkan sangat sedikit kasus yang terpengaruh oleh tuduhan deepfake. Yang ada menampilkan hasil yang sangat tidak konsisten.

Studi Kasus dari Pengadilan

Penolakan Tuduhan Deepfake Tanpa Dasar

Dalam beberapa kasus, hakim menunjukkan ketidakpuasan kuat terhadap pihak yang mencoba melemparkan tanggung jawab dengan berteriak "deepfake" tanpa dasar. 3 Pada kasus Huang v. Tesla, penemuan bukti mengungkapkan video Elon Musk membuat pernyataan tentang keamanan Autopilot. Penggugat mengajukan Request for Admission agar Tesla mengakui keaslian video. Tesla menolak mengakuinya, mengingat ketenaran Elon Musk dan potensi ia menjadi target deepfakes.

Pengadilan menegur penolakan Tesla untuk bekerja sama. Menimbulkan kekhawatiran slippery-slope (lereng licin) bahwa setiap orang terkenal dapat "bersembunyi di balik potensi pernyataan rekaman mereka menjadi deepfake untuk menghindari mengambil kepemilikan atas apa yang sebenarnya mereka katakan dan lakukan." Demikian pula, dalam Valenti v. Dfinity, pembela mengajukan mosi untuk mendiskualifikasi pengacara penggugat karena membuat pernyataan yang tertangkap dalam video.

Sebagai tanggapan, penggugat berusaha memperkenalkan laporan ahli yang menuduh video tersebut adalah deepfake. Pengadilan merespons dengan memihak pembela. 4 Menemukan bahwa tuduhan deepfake penggugat "menggarisbawahi kekhawatiran bahwa penasihat penggugat sangat berinvestasi dalam melindungi kepentingannya sendiri, dengan mengorbankan kepentingan kelas."

Potensi Pertahanan Deepfake yang Kuat

Namun beberapa tanggapan terhadap tuduhan deepfake menunjukkan keusangan aturan saat ini dalam menentukan autentisitas secara akurat. Dalam USA v. Khalilian, pembela mengajukan mosi untuk mengecualikan rekaman suara yang diduga menunjukkan terdakwa membuat ancaman dengan alasan bisa di-deepfake. 5 Dalam percakapan dengan pengadilan, jaksa berpendapat bahwa saksi yang akrab dengan suara terdakwa dapat mendengarkan audio dan menegaskan bahwa itu terdengar seperti terdakwa.

Pengadilan merespons, "Itu mungkin cukup untuk memasukannya." Tingkat pengawasan ini mungkin tidak cukup untuk mengadili tuduhan deepfake, karena metrik autentisitas tradisional, seperti suara dalam video, sekarang dapat dengan mudah dipalsukan. Kasus lain menunjukkan kekhawatiran lain mengenai tuduhan deepfake: potensi pertahanan deepfake—bahwa pihak dapat mempertanyakan autentisitas bukti apa pun, merusak kepercayaan juri padanya, tanpa dasar faktual.

Kasus 📋PihakTuduhanPutusan Pengadilan ⚖️
Huang v. TeslaTesla (Pembela)Video Elon Musk bisa deepfakePengadilan menegur Tesla, menolak alasan ketenaran
Valenti v. DfinityPenggugatVideo pengacara adalah deepfakeMemihak pembela, tuduhan tidak berdasar
USA v. KhalilianPembela (Terdakwa)Rekaman suara bisa deepfakePengadilan setuju pengenalan suara cukup
Wisconsin v. RittenhousePembelaFungsi zoom iPad menggunakan AIJaksa harus buktikan dengan ahli, tidak boleh zoom
US v. ReffittPembelaVideo kerusuhan dimanipulasi AIPengadilan izinkan pertanyaan tanpa bukti
Mata v. AviancaPengacara PenggugatSitasi AI yang dihalusikanKasus pertama yang mendapat publisitas tinggi
Berbagai KasusUmumTuduhan tanpa basis faktualHasil sangat tidak konsisten antar kasus

Kasus Tanpa Bukti Keterlibatan GenAI

Dalam kasus-kasus berikutnya, tidak ada bukti keterlibatan genAI, tetapi hakim mengizinkan penasihat untuk mempertanyakan autentisitas. Pada persidangan Wisconsin v. Rittenhouse, jaksa berusaha memperbesar video iPad yang sudah dimasukkan sebagai bukti. 6 Pembela keberatan, dengan alasan bahwa fungsi pinch-to-zoom Apple menggunakan AI untuk memanipulasi video.

Pengadilan memutuskan bahwa jaksa, sebagai pengaju, memiliki beban untuk menunjukkan melalui testimoni ahli bahwa fungsi pinch-to-zoom tidak akan mengubah rekaman yang mendasarinya. Karena jaksa tidak memiliki ahli yang siap, mereka tidak diizinkan untuk memperbesar video. Selama persidangan US v. Reffitt, pengadilan juga menghibur tuduhan deepfake tanpa dasar. Pada pemeriksaan langsung agen FBI, jaksa memasukkan, tanpa keberatan pembela, video terdakwa di kerusuhan 6 Januari.

Pada pemeriksaan silang, pembela mempertanyakan agen tentang kemungkinan video dimanipulasi AI. Jaksa keberatan. 7 Pengadilan mengizinkan pertanyaan tersebut, meskipun faktanya penasihat pembela, ketika ditanya, tidak dapat memberikan dukungan apa pun untuk teori manipulasi AI-nya.

Jalan ke Depan untuk Sistem Hukum

Kasus-kasus di atas mencontohkan kekhawatiran ganda yang perlu diseimbangkan oleh hakim. Prasyarat yang diperlukan untuk putusan yang adil yang tidak memasukkan atau mengecualikan bukti secara berlebihan adalah pendidikan yudisial tentang AI. 8 Hakim harus mempelajari kemampuan, keterbatasan, dan penyalahgunaan genAI untuk memahami perselisihan teknologi ini.

Hakim juga dapat menggunakan struktur aturan yang ada untuk mencegah bukti yang dimanipulasi AI dan tuduhan deepfake yang tidak berdasar. Misalnya, Model Rule of Professional Conduct 3.1 mengharuskan pengacara menyatakan isu hanya ketika mereka memiliki dasar dalam hukum dan fakta. Hakim harus mengingatkan pengacara bahwa, berdasarkan aturan ini, mereka tidak dapat sembarangan menyatakan pertahanan deepfake.

Selain itu, hakim dapat menerapkan perintah tetap yudisial tentang genAI. 9 Hakim memiliki kebijaksanaan luas untuk mengatur proses mereka melalui perintah tetap. Perintah tetap GenAI dapat menyediakan sidang prapersidangan tentang autentisitas mengingat tuduhan deepfake, menghalangi klaim manipulasi AI yang tidak berdasar di depan juri, atau mengambil langkah-langkah lain yang dianggap tepat oleh hakim sebagai tanggapan terhadap penyalahgunaan teknologi yang berkembang ini oleh pihak-pihak dalam tuntutan hukum.

Proposal Amandemen Rule 901(c)

Namun, potensi bukti deepfake pada akhirnya harus ditangani pada tingkat sistemik. Amandemen Rule 901(c) yang diusulkan untuk Federal Rules of Evidence akan secara kondisional meningkatkan beban autentisitas di atas standar kecukupan saat ini. 10 Berdasarkan amandemen ini, pihak dapat menolak autentisitas bukti karena kekhawatiran deepfake.

Namun, keberatan lawan itu sendiri perlu memenuhi standar kecukupan—dengan kata lain, lawan perlu menunjukkan bahwa ada dasar yang cukup untuk menemukan bukti tersebut di-deepfake. Kemudian, pengaju perlu menunjukkan dengan standar preponderansi (lebih mungkin daripada tidak), daripada standar kecukupan biasa, bahwa bukti mereka sebenarnya autentik. Advisory Committee harus segera menerima proposal ini, memulai proses tiga tahun untuk mengamandemen FRE.

Kesimpulan

Sementara itu, tanggung jawab untuk mencegah penyalahgunaan genAI dalam prosedur hukum, daripada membiarkan genAI mengendalikan persepsi juri terhadap bukti sama sekali, akan jatuh pada hakim. Kasus Mata v. Avianca pada Juni 2023 menjadi titik awal kesadaran publik terhadap bahaya AI dalam sistem hukum. 11 Multitude kasus sitasi yang dihalusikan telah mengikuti, sering kali melampaui kasus yang mendasarinya dalam hal publisitas.

Namun kegaduhan yang disebabkan oleh sitasi pra-persidangan yang dihalusikan ini pucat dibandingkan dengan kekhawatiran seputar potensi penggunaan AI generatif di persidangan. Masa depan sistem peradilan bergantung pada bagaimana institusi hukum merespons ancaman ini dengan bijaksana dan cepat.

Daftar Pustaka

  • Berkeley Technology Law Journal. (2025, Juni 23). Deepfaked Evidence: What Case Law Tells Us About How the Rules of Authenticity Needs to Change. https://btlj.org/2025/06/deepfaked-evidence-what-case-law-tells-us-about-how-the-rules-of-authenticity-needs-to-change/
  • Ibid.
  • Ibid.
  • Loc. cit.
  • Ibid.
  • Op. cit.
  • Ibid.
  • Ibid.
  • Op. cit.
  • Ibid.
  • Loc. cit.
Download PDF tentang Reformasi Aturan Autentikasi B (telah di download 0 kali)
  • Ancaman Deepfake 🎬 terhadap Autentikasi Bukti Hukum
    Penelitian ini menganalisis bagaimana teknologi deepfake berbasis Generative AI mengancam integritas sistem pembuktian hukum, meneliti inkonsistensi yurisprudensi dalam merespons tuduhan pemalsuan digital, dan mengevaluasi urgensi amandemen Rule 901 Federal Rules of Evidence untuk menetapkan standar autentikasi yang lebih ketat guna menjaga kepercayaan publik terhadap proses peradilan di era transformasi teknologi.
Penulis
Swante Adi Krisna
Penikmat musik Ska, Reggae dan Rocksteady sejak 2004. Gooners sejak 1998. Blogger dan SEO paruh waktu sejak 2014. Graphic Designer autodidak sejak 2001. Website Programmer autodidak sejak 2003. Woodworker autodidak sejak 2024. Sarjana Hukum Pidana dari salah satu Perguruan Tinggi Negeri di Surakarta. Magister Hukum Pidana di bidang cybercrime dari salah satu Perguruan Tinggi Swasta di Surakarta. Magister Kenotariatan di bidang hukum teknologi, khususnya cybernotary dari salah satu Perguruan Tinggi Negeri di Surakarta. Bagian dari Keluarga Besar Kementerian Pertahanan Republik Indonesia.