Rawan Disalahgunakan, Pakar Ingatkan Pentingnya Regulasi untuk Mitigasi Risiko AI
Ilustrasi: Kecerdasan buatan atau Artificial Intelligence (AI) sudah mulai jadi tren yang massif digunakan masyarakat. (Military Aerospace)
07:52
4 Oktober 2024

Rawan Disalahgunakan, Pakar Ingatkan Pentingnya Regulasi untuk Mitigasi Risiko AI

  Kecerdasan buatan atau Artificial Intelligence (AI) mulai jadi tren yang massif hadir di masyarakat saat ini. Tanpa kita sadari, AI sudah kita gunakan lewat berbagai medium, mulai dari smartphone, kuota internet yang kita pakai, jaringan seluler yang terhubung ke perangkat kita, sampai tayangan yang kita lihat sehari-hari baik di TV atau platform video, rata-rata sudah memanfaatkan AI.   Dengan mulai massifnya tren AI, para pakar dan praktisi mulai menyadari pentingnya regulasi terkait AI ini. Hal ini salah satunya digaungkan oleh The Institute of Management Development (IMD) dan tim ahli dari TONOMUS Global Center for Digital and AI Transformation membuat “AI Safety Clock” (Jam Keamanan AI).    Jam ini menjadi indikator seberapa tinggi risiko perkembangan Kecerdasan Buatan Umum (Artificial General Intelligence/ AGI) hingga menjadi tidak terkendali. AGI merupakan sistem AI yang bisa beroperasi mandiri tanpa bantuan dan pengawasan manusia, sehingga berpotensi membahayakan.  

  Lalu seberapa berbahaya ancaman AI bagi umat manusia saat ini? Menurut Michael Wade, Director Global Center for Digital Business Transformation IMD, sekaligus Director of the TONOMUS Global Center for Digital and AI Transformation terdapat empat fase risiko AGI yang tidak terkendali, yakni risiko rendah, sedang, tinggi, dan kritis. Saat ini, dunia mulai memasuki fase risiko tinggi.   “Perkembangan AGI saat ini kita sedang beralih dari fase risiko sedang ke risiko tinggi. Ketika perkembagan AGI menjadi kritis dan tidak terkendali, hal itu akan menjadi musibah bagi umat manusia. Risikonya serius, tetapi belum terlambat untuk bertindak,” jelas Wade melalui laporan resminya.   Menurutnya, regulasi yang efektif dan terpadu bisa membatasi risiko terburuk perkembangan teknologi ini tanpa mengurangi manfaatnya. "Untuk itu, kami menyerukan kepada para pelaku internasional dan perusahaan teknologi raksasa untuk melakukan pencegahan demi kebaikan kita semua,” tegasnya.   

  Ketika perkembangan AGI menjadi tidak lagi bisa dikendalikan manusia, maka hal ini bisa menjadi musibah bagi dunia.  Contohnya, ketika AI mengambil alih dan mengendalikan persenjataan konvensional, mulai dari senjata nuklir, biologi, atau kimia.    Tiongkok saat ini sedang mempercepat komersialisasi robot humanoid, termasuk penerapannya di infrastruktur sensitif seperti jaringan listrik dan pembangkit listrik tenaga nuklir. Kemudian, AI juga digunakan untuk memanipulasi atau mengganggu pasar keuangan.   Ada lagi AI yang dipakai memanipulasi atau mengganggu infrastruktur penting, seperti energi, transportasi, komunikasi, air, dll dan terakhir penggunaan AI untuk manipulasi atau mengganggu sistem politik, jaringan sosial, dan ekosistem biologis dan lingkungan uang membawa ancaman langsung AI terhadap nyawa manusia.  

  Dijelaskan tim dari IMD, ada dua perkembangan AI yang mendorong peningkatan risiko dari sedang menjadi tinggi yakni AI multimoda (AI multimodal) dan AI agen (agentic AI). AI multimoda bisa memproses dan mengintegrasikan beberapa jenis input (seperti teks, gambar, audio) untuk menyelesaikan tugas yang lebih kompleks, contohnya adalah GPT-4o, Gemini Ultra, dan Pixtral 12B.   Sementara AI agen mengacu pada sistem AI yang mampu merencanakan, bertindak, dan membuat keputusan secara otonom. Saat ini AI agen tengah berkembang pesat. Perkembangan AI agen memang mendorong kemajuan AGI, namun berpotensi menjadi bencana ketika sistem ini menjadi tidak terkendali setelah digabungkan dengan teknologi lain.   Contoh lainnya adalah perkembangan robot humanoid yang ditenagai oleh AI generatif. AI generatif digunakan agar robot humanoid ini bisa beroperasi dan mengambil keputusan secara mandiri. NVIDIA tengah bermitra dengan perusahaan robotika untuk mengembangkan model dasar untuk robot humanoid semacam ini.  

  Kemajuan teknologi ini memang menarik, namun bisa menjadi ancaman tersembunyi bagi manusia. Pengawasan yang cermat dan manajemen yang bertanggung jawab penting agar penerapan AI lebih aman dan tidak menjadi ‘senjata makan tuan’.    Kembali ke regulasi, dalam sejarah, regulasi sering kali keluar lebih lambat dari perkembangan teknologi dan inovasi. Saat ini, terdapat sejumlah inisiatif seperti EU AI Act, California’s SB 1047, dan Council of Europe’s Framework Convention on AI yang bisa menjadi acuan aturan AI.   Selain aturan dan kebijakan pemerintah, semua pemangku kepentingan, terutama perusahaan yang mengembangkan model AI seperti OpenAI, Meta, dan Alphabet, memainkan peran yang sama besar untuk mengurangi risiko AI.  

  Untuk praktik keselamatan AI, sejumlah perusahaan teknologi pengembang AI mulai mencoba menerapkan regulasi pengamanan. OpenAI telah menyediakan Preparedness Framework, Alphabet memiliki Google DeepMind Frontier Safety Framework, dan Anthropic menyiapkan Responsible Scaling Policy (RSP).    Berbagai kerangka kerja ini merupakan langkah penting menjaga keselamatan AI, namun masih diperlukan transparansi dan penegakan langkah praktis yang lebih baik.  

 

Editor: Banu Adikara

Tag:  #rawan #disalahgunakan #pakar #ingatkan #pentingnya #regulasi #untuk #mitigasi #risiko

KOMENTAR