



Meski Bikin Masalah, Pengacara Tetap Andalkan ChatGPT: Kenapa Tak Bisa Lepas?
Dalam beberapa waktu terakhir, nama ChatGPT kerap muncul dalam berita hukum, dan bukan karena alasan yang positif. Sejumlah pengacara dilaporkan mendapat sanksi akibat menyerahkan dokumen pengadilan berisi kutipan hukum yang ternyata fiktif alias hasil "halusinasi" AI.
Meski sudah beberapa kali menimbulkan masalah, nyatanya tak sedikit pengacara yang tetap memanfaatkan kecerdasan buatan ini dalam pekerjaan mereka.
Menurut laporan dari The Verge, sebagian besar kasus bermula dari tekanan waktu dan beban kerja yang menumpuk. Dalam kondisi demikian, penggunaan AI seperti ChatGPT atau fitur serupa di platform hukum seperti Westlaw dan LexisNexis tampak menggoda sebagai jalan pintas.
Masalahnya, masih banyak pengacara yang belum memahami benar cara kerja teknologi ini. Salah satu pengacara yang dijatuhi sanksi pada 2023 bahkan mengira ChatGPT hanyalah "mesin pencari super". Ia baru sadar bahwa alat tersebut bisa menciptakan kutipan hukum yang terdengar meyakinkan namun sepenuhnya fiktif, setelah hakim menemukan kejanggalan dalam dokumen yang ia serahkan.
Salah satu kasus paling mencolok terjadi dalam sidang terhadap jurnalis Tim Burke, yang didakwa usai menerbitkan cuplikan rekaman Fox News yang belum ditayangkan. Dokumen yang diajukan tim pengacara Burke ternyata mengandung sembilan kutipan hukum palsu. Hakim Kathryn Kimball Mizelle pun memerintahkan dokumen itu dicabut dari berkas perkara, dikutip dari Tampa Bay Times.
Namun, tak semua pengacara menolak penggunaan AI. Dean Fakultas Hukum Suffolk University, Andrew Perlman, justru melihat potensi besar dari alat seperti ChatGPT dalam mendukung pekerjaan hukum.
"Masalah halusinasi memang nyata, dan pengacara harus hati-hati. Tapi itu tidak berarti teknologi ini tak punya manfaat besar," ujarnya.
Hasil survei Thomson Reuters pada 2024 mencatat bahwa 63 persen pengacara pernah menggunakan AI, dan 12 persen menggunakannya secara rutin, terutama untuk merangkum putusan, menelusuri hukum, hingga menulis draf. Separuh responden menyebut eksplorasi penggunaan AI sebagai prioritas tertinggi mereka.
Namun risiko tetap ada. Salah satu contohnya terjadi saat pengacara perusahaan AI Anthropic menyusun pernyataan saksi ahli menggunakan Claude AI. Dokumen tersebut memuat kutipan dengan judul dan penulis yang tidak akurat. Kesalahan serupa juga terjadi dalam kasus hukum di Minnesota, ketika seorang pakar misinformasi menggunakan ChatGPT dan menghasilkan kutipan yang keliru.
Tak hanya itu, seorang hakim di California sempat hampir terbujuk oleh argumen dalam berkas perkara, hingga ia sadar bahwa semua sumber hukum dalam dokumen tersebut tidak benar-benar ada.
"Saya membaca berkas itu dan tertarik dengan kutipan hukumnya, tapi setelah saya telusuri, ternyata tidak satu pun putusan itu benar-benar ada," ujar Hakim Michael Wilner.
Menurut Perlman, solusi yang paling aman adalah menjadikan AI sebagai alat bantu, bukan pengganti. ChatGPT, misalnya, bisa digunakan untuk menyortir dokumen dalam jumlah besar atau memunculkan berbagai sudut pandang saat menyusun argumen. Tapi tetap, semua hasilnya harus diverifikasi oleh manusia.
Pengacara sekaligus anggota DPR Arizona, Alexander Kolodin, bahkan menyamakan ChatGPT dengan "asisten junior". Ia menggunakan AI untuk menyusun draf rancangan undang-undang tentang deepfake, namun tetap menambahkan sentuhan manusianya agar pas dengan nilai-nilai hak asasi manusia. Ia juga mengaku selalu mengecek kutipan dari hasil kerja ChatGPT, sama seperti ia akan memeriksa kerja asisten magang.
Penggunaan AI di kalangan pengacara kini begitu luas hingga American Bar Association pada 2024 mengeluarkan pedoman pertama mereka. Dalam dokumen itu ditegaskan bahwa pengacara wajib memiliki "kompetensi teknologi yang relevan", termasuk memahami risiko dan manfaat dari alat AI generatif.
Perlman menambahkan bahwa ke depan, justru akan muncul kekhawatiran baru: bukan pada pengacara yang menggunakan AI, tapi pada mereka yang tidak menggunakannya. Meski begitu, ia tetap mengingatkan bahwa kepercayaan buta pada teknologi bisa menjadi bumerang.
"Banyak orang merasa nyaman karena output-nya terlihat rapi dan meyakinkan," ujar Perlman.
"Tapi di balik itu, kita tetap harus bersikap kritis dan cek ulang semua informasi, sebab pada akhirnya, tanggung jawab ada di tangan manusia, bukan mesin," lanjutnya. (*)
Tag: #meski #bikin #masalah #pengacara #tetap #andalkan #chatgpt #kenapa #bisa #lepas