Ketiadaan Regulasi Picu Kejahatan Berbasis AI
FORUM Ekonomi Dunia (WEF) 2026 memberikan perhatian khusus terkait pentingnya regulasi Artificial Intelligence (AI) dalam mengatasi kejahatan siber.
World Economy Forum (WEF) juga menyoroti ketidakjelasan regulasi yang tidak merata di berbagai yurisdiksi.
Dikutip dari QA Financial “World Economic Forum: AI-driven fraud a major risk for banks” menegaskan bahwa harapan regulasi tentang AI, bukan lagi hal abstrak.
Para pemimpin negara WEF menekankan pentingnya sistem AI yang dapat diandalkan, tangguh, dan mematuhi regulasi sepanjang siklus hidupnya.
Risiko digital
WEF yang berlangsung pada 19–23 Januari di Davos, Swiss, menegaskan adanya perubahan mendasar dalam peta risiko digital sektor keuangan.
AI generatif telah menggeser ancaman dari semula kejahatan siber konvensional menjadi kejahatan berbasis AI.
Baca juga: Jebakan “Epstein” di Panggung Politik
Cybercrime konvensional seperti peretasan sistem, kini berubah menjadi penipuan berbasis manipulasi perangkat lunak, identitas digital, dan perilaku pengguna.
Oleh karena itu, dalam konteks ini, kejahatan berbasis AI tidak lagi dapat dipahami atau ditangani seperti halnya kita memahami kejahatan konvensional, karena bekerja secara adaptif, lintas sistem, dan sering kali meniru perilaku manusia secara meyakinkan.
Jika sebelumnya penjahat harus bersusah payah merancang modus rekayasa sosial (social engineering) untuk memperdaya korbannya, maka kini AI yang digunakan untuk meniru perilaku manusia.
Fenomena ini menuntut perombakan cara berpikir regulator, penegak hukum, dan pelaku industri.
Pendekatan hukum dan teknis konservatif tidak lagi relevan menghadapi kejahatan cerdas dan amat dinamis ini. Apalagi saat ini semakin banyak orang yang sulit membedakan apakah tayangan video, misalnya, adalah asli manusia atau rekayasa AI.
WEF juga menekankan bahwa kejahatan siber berbasis AI kini menjadi isu utama keamanan perangkat lunak dan tata kelola risiko, bukan sekadar persoalan kriminal biasa.
Secara hipotetik, jika bank masih mengandalkan pola penanganan kejahatan konvensional dalam bentuk respons pasca-insiden, maka sistem AI yang keliru dapat terus menimbulkan kerugian berulang tanpa terdeteksi.
Kejahatan berbasis AI bekerja di dalam logika sistem dan proses bisnis, sehingga menuntut pendekatan preventif sistematik berjenjang, berpola hukum transformatif yang menyasar dari level paling awal sampai paling hilir.
Kegagalan memahami karakter non-konvensional kejahatan AI akan membuat institusi selalu selangkah tertinggal dari teknologi dan pelaku kejahatan.
Survei WEF menunjukkan bahwa mayoritas CEO telah terdampak penipuan siber dengan metode seperti phishing, penipuan pembayaran, dan pencurian identitas berbasis AI semakin dominan.
Fenomena ini menandai pergeseran dari kejahatan berbasis infrastruktur menuju kejahatan berbasis perilaku dan keputusan otomatis sistem.
Secara hipotetik, satu kesalahan kecil dalam model AI atau kelalaian pelindungan data pribadi dapat dimanfaatkan penjahat untuk penipuan lanjutan.
Hal ini menunjukan bahwa kejahatan berbasis AI bersifat sistemik, bukan insidental, sehingga tidak bisa lagi diperlakukan sebagai kasus kriminal individual semata.
Baca juga: Korupsi Pajak dan Bea Cukai: Memutus “Clique”, Mengganti Seluruh Pejabat
WEF juga mencatat bahwa AI menurunkan hambatan masuk bagi pelaku kejahatan, memungkinkan penipuan lintas bahasa, lintas negara, dan lintas platform secara masif.
Kondisi ini diperparah oleh keterbatasan tenaga ahli keamanan siber yang mendorong organisasi mengandalkan otomatisasi.
Tanpa pengujian dan pengawasan ketat di level upstream, AI justru dapat memperluas skala kejahatan, bukan menahannya.
Ketergantungan berlebihan pada AI tanpa kendali manusia berpotensi mengubah kejahatan konvensional menjadi kejahatan terotomasi dengan dampak yang lebih luas.
WEF menegaskan bahwa tata kelola AI di sektor keuangan harus dibuktikan melalui mekanisme teknis konkret, terutama pengujian berkelanjutan, auditabilitas, dan pemantauan perilaku sistem.
Regulator kini tidak lagi hanya menilai kepatuhan formal, tetapi juga kemampuan institusi mengendalikan risiko AI yang bersifat non-konvensional.
WEF menekankan bahwa selama kejahatan berbasis AI masih diperlakukan dengan kerangka kejahatan konvensional, ketahanan digital dan stabilitas keuangan akan selalu berada dalam posisi rentan.
Dalam konteks inilah, ketidakjelasan regulasi menjadi faktor krusial yang mendorong meningkatnya kejahatan berbasis AI.
Selama ini, hukum masih diproyeksikan untuk bekerja terutama di tahap downstream, yakni menyelesaikan persoalan panca-insiden melalui mekanisme pemidanaan.
Dalam beberapa penelitian di Center of Cyberlaw & Digital Transformation Fakultas Hukum Universitas Padjadjaran, saya menawarkan pendekatan Hukum Transformatif berbasis risiko.
Hukum seharusnya hadir secara utuh sejak level upstream, midstream, hingga downstream, terutama dalam menghadapi kasus siber seperti AI ini .
Dalam kerangka hukum transformatif, pendekatan level upstream merupakan tahap paling awal yang menentukan arah risiko, yaitu fase perancangan, pengembangan, dan pelatihan AI.
Pada tahap ini, hukum mengatur standar desain yang aman, kualitas dan legalitas data pelatihan, pencegahan bias, selain juga penetapan siapa subjek yang bertanggung jawab sejak awal.
Tanpa pengaturan level upstream, potensi kejahatan bisa tertanam di dalam sistem AI sebelum AI digunakan di ruang publik, secara tak terbaca dan tak terdeteksi.
Baca juga: Waspada Penipuan Investasi Kripto
Tahap midstream dalam pendekatan hukum transformatif mencakup proses implementasi seperti distribusi, penerapan, monitoring evaluasi, dan penggunaan AI dalam praktik nyata.
Di sini juga penting penerapan urgensi audit dan asesmen risiko sepanjang siklus hidup AI ("AI life-cycle assessment"). AI tidak bersifat statis, terus belajar, berubah, dan beradaptasi.
Oleh karena itu, regulasi harus menekankan kewajiban audit berkala, evaluasi dampak, mekanisme pengawasan, dan kewajiban koreksi apabila ditemukan risiko hukum, etika, atau keamanan.
Tanpa pengaturan midstream, AI dapat berkembang di luar kendali, meskipun awalnya dirancang untuk tujuan yang sah.
Pendekatan hukum transformatif menegaskan bahwa kejahatan berbasis AI tidak dapat disamakan dengan kejahatan konvensional yang memperlakukan AI sebagai alat pasif seperti senjata api atau senjata tajam.
Sebagai alat dan platform, AI bisa memiliki karakter spesifik seperti sifat otonom, adaptif, dan berbasis data dalam skala besar, dengan proses pengambilan keputusan yang sering kali tidak transparan (black box).
Kejahatan berbasis AI pun potensial bersifat sistemik, dapat direplikasi secara masif, dan melibatkan banyak aktor dalam satu rantai teknologi, sehingga tidak relevan jika hukum hanya mencari satu pelaku di hilir pasca-insiden pula.
Pendekatan terakhir, di level downstream prinsip hukum transformatif menekankan mekanisme penegakan hukum sebagai ultimum remidium. Eksekusinya melalui formula sanksi pidana, perdata, atau administratif.
Efektivitas level downstream sangat bergantung pada kuat atau lemahnya regulasi upstream dan midstream. Jika dua level sebelumnya berjalan optimal, maka level downstream akan relatif sangat minimal beban.
Dengan menerapkan pendekatan hukum transformatif ini, regulasi AI diformulasikan tak sekadar reaktif pasca-insiden, tetapi menjadi regulasi preventif, adaptif, yang mampu mengendalikan risiko kejahatan siber berbasis AI secara komprehensif dan melindungi publik.