Antisipasi Kejahatan Digital Berbasis AI, Pemerintah Perlu Perketat atau Larang Voice Cloning
Ilustrasi: Kecerdasan buatan atau Artificial Intelligence (AI) sudah mulai jadi tren yang massif digunakan masyarakat. (Military Aerospace)
11:16
12 Oktober 2024

Antisipasi Kejahatan Digital Berbasis AI, Pemerintah Perlu Perketat atau Larang Voice Cloning

- Duo ilmuwan perintisnya yang baru saja diganjar Nobel Fisika mengingatkan: hati-hati dengan artificial intelligence (AI) alias kecerdasan artifisial. Kalau pemanfaatannya tak dikontrol, bisa terjadi katastrofi (musibah besar).

"Sebagai seorang fisikawan, saya sangat khawatir akan sesuatu yang tidak punya kontrol, sesuatu yang tidak sepenuhnya saya pahami agar bisa tahu batasan teknologi tersebut,” kata John Hopfield, guru besar di Universitas Princeton, Amerika Serikat, seperti dikutip AFP (9/10).

Adapun partnernya, Geoffrey Hinton, yang dijuluki Godfather of AI, mengingatkan tentang risiko besar AI terhadap masyarakat dan kemanusiaan. ’’Saya khawatir terhadap konsekuensi keseluruhan (dari AI) berupa sistem yang jadi lebih cerdas dari kita yang akhirnya mengambil alih,” katanya.

Penggunaan voice cloning atau pengkloningan suara oleh AI jangan-jangan salah satu wujud awal kekhawatiran kedua Nobelis Fisika tersebut. Hati-hati, kalau tidak, bisa dipakai penipuan, termasuk yang berkedok asmara alias love scam.

Secara garis besar, voice cloning adalah memproduksi ulang suara dengan data suara seseorang. ”Dengan kalimat yang terserah penggunanya. Ini berbahaya sekali,” kata Hermansyah, pakar teknologi informasi Institut Teknologi Bandung, kepada Jawa Pos kemarin (11/10).

Di Indonesia, setahu Hermansyah, AI voice cloning telah digunakan dalam iklan. Salah satunya, suara presiden terpilih Prabowo Subianto yang berjualan seprai atau alas tidur dan beredar di TikTok.

”Suaranya sangat mirip, hampir tidak bisa dibedakan. Jelas sangat mengerikan kalau digunakan dalam kejahatan,” ujarnya.

Diketahui dari Orang Lain

Hermansyah menyarankan untuk masyarakat cara mencegahnya dengan terus mempertajam informasi. Itu penting untuk melihat respons, untuk bisa membedakan antara AI dengan suara manusia asli. Tentu dengan catatan: korban tidak panik duluan.

Untuk pemerintah dan kepolisian, lanjutnya, perlu melakukan antisipasi berupa sosialisasi. Bahkan mungkin perlu larangan penggunaan voice cloning AI. Atau setidaknya penggunaannya diatur ketat.

Terpisah, tenaga ahli psikologi Unit Pelaksanaan Teknis Daerah Perlindungan Perempuan dan Anak Provinsi Jawa Barat Nurafni menuturkan bahwa love scam terjadi kepada seseorang yang memiliki kebutuhan psikologi dan lahiriah tertentu. ”Misalnya karena ada dorongan untuk mencari pasangan, karena problem rumah tangga dan sebagainya,” paparnya. (idr/c17/ttg)

Editor: Ilham Safutra

Tag:  #antisipasi #kejahatan #digital #berbasis #pemerintah #perlu #perketat #atau #larang #voice #cloning

KOMENTAR