Teknologi Generative AI (AI Generatif) kini menghadirkan tantangan serius dalam sistem peradilan. 1 Kemampuan menciptakan deepfake (pemalsuan digital) audiovisual menimbulkan kekhawatiran ganda: pihak-pihak dapat mengajukan bukti palsu sebagai asli, atau sebaliknya, menolak bukti asli dengan dalih pemalsuan. Dalam kedua kasus tersebut, genAI merusak kepercayaan pada litigasi dan berpotensi membuat semua bukti menjadi mencurigakan.
Respons Komite Advisory Federal Rules of Evidence
Federal Rules of Evidence Advisory Committee sedang mempertimbangkan amandemen terhadap Rule 901. 2 Aturan 901 saat ini menetapkan bahwa bukti dianggap autentik jika ada dasar yang cukup untuk menemukan bahwa bukti tersebut sesuai dengan klaim pengaju. Kalangan hukum semakin khawatir bahwa standar ini terlalu rendah, terutama mengingat autentisitas merupakan persyaratan ambang batas untuk admisibilitas.
Bahkan sarjana yang sebelumnya mengkritik amandemen khusus genAI untuk pasal 901, seperti Professor Wexler dari Berkeley Law, kini mendukung perubahan tersebut. Namun realitas di lapangan menunjukkan sangat sedikit kasus yang terpengaruh oleh tuduhan deepfake. Yang ada menampilkan hasil yang sangat tidak konsisten.
Studi Kasus dari Pengadilan
Penolakan Tuduhan Deepfake Tanpa Dasar
Dalam beberapa kasus, hakim menunjukkan ketidakpuasan kuat terhadap pihak yang mencoba melemparkan tanggung jawab dengan berteriak "deepfake" tanpa dasar. 3 Pada kasus Huang v. Tesla, penemuan bukti mengungkapkan video Elon Musk membuat pernyataan tentang keamanan Autopilot. Penggugat mengajukan Request for Admission agar Tesla mengakui keaslian video. Tesla menolak mengakuinya, mengingat ketenaran Elon Musk dan potensi ia menjadi target deepfakes.
Pengadilan menegur penolakan Tesla untuk bekerja sama. Menimbulkan kekhawatiran slippery-slope (lereng licin) bahwa setiap orang terkenal dapat "bersembunyi di balik potensi pernyataan rekaman mereka menjadi deepfake untuk menghindari mengambil kepemilikan atas apa yang sebenarnya mereka katakan dan lakukan." Demikian pula, dalam Valenti v. Dfinity, pembela mengajukan mosi untuk mendiskualifikasi pengacara penggugat karena membuat pernyataan yang tertangkap dalam video.
Sebagai tanggapan, penggugat berusaha memperkenalkan laporan ahli yang menuduh video tersebut adalah deepfake. Pengadilan merespons dengan memihak pembela. 4 Menemukan bahwa tuduhan deepfake penggugat "menggarisbawahi kekhawatiran bahwa penasihat penggugat sangat berinvestasi dalam melindungi kepentingannya sendiri, dengan mengorbankan kepentingan kelas."
Potensi Pertahanan Deepfake yang Kuat
Namun beberapa tanggapan terhadap tuduhan deepfake menunjukkan keusangan aturan saat ini dalam menentukan autentisitas secara akurat. Dalam USA v. Khalilian, pembela mengajukan mosi untuk mengecualikan rekaman suara yang diduga menunjukkan terdakwa membuat ancaman dengan alasan bisa di-deepfake. 5 Dalam percakapan dengan pengadilan, jaksa berpendapat bahwa saksi yang akrab dengan suara terdakwa dapat mendengarkan audio dan menegaskan bahwa itu terdengar seperti terdakwa.
Pengadilan merespons, "Itu mungkin cukup untuk memasukannya." Tingkat pengawasan ini mungkin tidak cukup untuk mengadili tuduhan deepfake, karena metrik autentisitas tradisional, seperti suara dalam video, sekarang dapat dengan mudah dipalsukan. Kasus lain menunjukkan kekhawatiran lain mengenai tuduhan deepfake: potensi pertahanan deepfake—bahwa pihak dapat mempertanyakan autentisitas bukti apa pun, merusak kepercayaan juri padanya, tanpa dasar faktual.
| Kasus 📋 | Pihak | Tuduhan | Putusan Pengadilan ⚖️ |
| Huang v. Tesla | Tesla (Pembela) | Video Elon Musk bisa deepfake | Pengadilan menegur Tesla, menolak alasan ketenaran |
| Valenti v. Dfinity | Penggugat | Video pengacara adalah deepfake | Memihak pembela, tuduhan tidak berdasar |
| USA v. Khalilian | Pembela (Terdakwa) | Rekaman suara bisa deepfake | Pengadilan setuju pengenalan suara cukup |
| Wisconsin v. Rittenhouse | Pembela | Fungsi zoom iPad menggunakan AI | Jaksa harus buktikan dengan ahli, tidak boleh zoom |
| US v. Reffitt | Pembela | Video kerusuhan dimanipulasi AI | Pengadilan izinkan pertanyaan tanpa bukti |
| Mata v. Avianca | Pengacara Penggugat | Sitasi AI yang dihalusikan | Kasus pertama yang mendapat publisitas tinggi |
| Berbagai Kasus | Umum | Tuduhan tanpa basis faktual | Hasil sangat tidak konsisten antar kasus |
Kasus Tanpa Bukti Keterlibatan GenAI
Dalam kasus-kasus berikutnya, tidak ada bukti keterlibatan genAI, tetapi hakim mengizinkan penasihat untuk mempertanyakan autentisitas. Pada persidangan Wisconsin v. Rittenhouse, jaksa berusaha memperbesar video iPad yang sudah dimasukkan sebagai bukti. 6 Pembela keberatan, dengan alasan bahwa fungsi pinch-to-zoom Apple menggunakan AI untuk memanipulasi video.
Pengadilan memutuskan bahwa jaksa, sebagai pengaju, memiliki beban untuk menunjukkan melalui testimoni ahli bahwa fungsi pinch-to-zoom tidak akan mengubah rekaman yang mendasarinya. Karena jaksa tidak memiliki ahli yang siap, mereka tidak diizinkan untuk memperbesar video. Selama persidangan US v. Reffitt, pengadilan juga menghibur tuduhan deepfake tanpa dasar. Pada pemeriksaan langsung agen FBI, jaksa memasukkan, tanpa keberatan pembela, video terdakwa di kerusuhan 6 Januari.
Pada pemeriksaan silang, pembela mempertanyakan agen tentang kemungkinan video dimanipulasi AI. Jaksa keberatan. 7 Pengadilan mengizinkan pertanyaan tersebut, meskipun faktanya penasihat pembela, ketika ditanya, tidak dapat memberikan dukungan apa pun untuk teori manipulasi AI-nya.
Jalan ke Depan untuk Sistem Hukum
Kasus-kasus di atas mencontohkan kekhawatiran ganda yang perlu diseimbangkan oleh hakim. Prasyarat yang diperlukan untuk putusan yang adil yang tidak memasukkan atau mengecualikan bukti secara berlebihan adalah pendidikan yudisial tentang AI. 8 Hakim harus mempelajari kemampuan, keterbatasan, dan penyalahgunaan genAI untuk memahami perselisihan teknologi ini.
Hakim juga dapat menggunakan struktur aturan yang ada untuk mencegah bukti yang dimanipulasi AI dan tuduhan deepfake yang tidak berdasar. Misalnya, Model Rule of Professional Conduct 3.1 mengharuskan pengacara menyatakan isu hanya ketika mereka memiliki dasar dalam hukum dan fakta. Hakim harus mengingatkan pengacara bahwa, berdasarkan aturan ini, mereka tidak dapat sembarangan menyatakan pertahanan deepfake.
Selain itu, hakim dapat menerapkan perintah tetap yudisial tentang genAI. 9 Hakim memiliki kebijaksanaan luas untuk mengatur proses mereka melalui perintah tetap. Perintah tetap GenAI dapat menyediakan sidang prapersidangan tentang autentisitas mengingat tuduhan deepfake, menghalangi klaim manipulasi AI yang tidak berdasar di depan juri, atau mengambil langkah-langkah lain yang dianggap tepat oleh hakim sebagai tanggapan terhadap penyalahgunaan teknologi yang berkembang ini oleh pihak-pihak dalam tuntutan hukum.
Proposal Amandemen Rule 901(c)
Namun, potensi bukti deepfake pada akhirnya harus ditangani pada tingkat sistemik. Amandemen Rule 901(c) yang diusulkan untuk Federal Rules of Evidence akan secara kondisional meningkatkan beban autentisitas di atas standar kecukupan saat ini. 10 Berdasarkan amandemen ini, pihak dapat menolak autentisitas bukti karena kekhawatiran deepfake.
Namun, keberatan lawan itu sendiri perlu memenuhi standar kecukupan—dengan kata lain, lawan perlu menunjukkan bahwa ada dasar yang cukup untuk menemukan bukti tersebut di-deepfake. Kemudian, pengaju perlu menunjukkan dengan standar preponderansi (lebih mungkin daripada tidak), daripada standar kecukupan biasa, bahwa bukti mereka sebenarnya autentik. Advisory Committee harus segera menerima proposal ini, memulai proses tiga tahun untuk mengamandemen FRE.
Kesimpulan
Sementara itu, tanggung jawab untuk mencegah penyalahgunaan genAI dalam prosedur hukum, daripada membiarkan genAI mengendalikan persepsi juri terhadap bukti sama sekali, akan jatuh pada hakim. Kasus Mata v. Avianca pada Juni 2023 menjadi titik awal kesadaran publik terhadap bahaya AI dalam sistem hukum. 11 Multitude kasus sitasi yang dihalusikan telah mengikuti, sering kali melampaui kasus yang mendasarinya dalam hal publisitas.
Namun kegaduhan yang disebabkan oleh sitasi pra-persidangan yang dihalusikan ini pucat dibandingkan dengan kekhawatiran seputar potensi penggunaan AI generatif di persidangan. Masa depan sistem peradilan bergantung pada bagaimana institusi hukum merespons ancaman ini dengan bijaksana dan cepat.
Daftar Pustaka
- Berkeley Technology Law Journal. (2025, Juni 23). Deepfaked Evidence: What Case Law Tells Us About How the Rules of Authenticity Needs to Change. https://btlj.org/2025/06/deepfaked-evidence-what-case-law-tells-us-about-how-the-rules-of-authenticity-needs-to-change/
- Ibid.
- Ibid.
- Loc. cit.
- Ibid.
- Op. cit.
- Ibid.
- Ibid.
- Op. cit.
- Ibid.
- Loc. cit.

