Seberapa Besar Risiko AI Super Lepas Kendali? MIT Temukan Angka Mengejutkan
Ilustrasi AI super (Dok. Unsplash)
20:24
12 Mei 2025

Seberapa Besar Risiko AI Super Lepas Kendali? MIT Temukan Angka Mengejutkan

 - Perusahaan pengembang kecerdasan buatan (AI) diminta untuk melakukan perhitungan risiko seperti yang dilakukan ilmuwan sebelum uji coba bom nuklir pertama Amerika Serikat, Trinity, sebelum meluncurkan sistem AI super canggih.

Mengutip dari The Guardian, Max Tegmark, pakar keselamatan AI dan profesor fisika dari Massachusetts Institute of Technology (MIT), mengatakan bahwa ia dan tiga mahasiswanya telah melakukan perhitungan serupa dengan yang dilakukan Arthur Compton sebelum uji coba nuklir pada 1945.

Hasilnya menunjukkan bahwa sistem AI yang sangat maju berpotensi menimbulkan ancaman eksistensial dengan probabilitas sebesar 90 persen.

Konstanta Compton: Ukuran Kemungkinan AI Lepas Kendali

Dalam wawancara dengan The Guardian, Tegmark menjelaskan bahwa perusahaan AI perlu menghitung apa yang ia sebut sebagai "konstanta Compton", yaitu kemungkinan bahwa kecerdasan buatan super akan lepas dari kendali manusia. 

Istilah ini terinspirasi dari komentar Compton pada tahun 1959 yang mengatakan bahwa ia menyetujui uji coba Trinity setelah menghitung kemungkinan reaksi berantai tak terkendali sebagai "sedikit kurang dari satu banding tiga juta."

"Perusahaan yang membangun kecerdasan super juga perlu menghitung konstanta Compton, kemungkinan kita akan kehilangan kendali atasnya," kata Tegmark. 

"Tidak cukup hanya mengatakan 'kami merasa yakin'. Mereka harus menghitung persentasenya."

Dorongan Kerja Sama Global untuk Keamanan AI

Tegmark menyatakan bahwa jika beberapa perusahaan melakukan perhitungan ini bersama, maka bisa terbentuk "kemauan politik" untuk menyepakati aturan keselamatan global bagi AI.

Ia berbicara saat para pakar AI, termasuk dari perusahaan besar seperti OpenAI dan Google DeepMind, menyusun pendekatan baru dalam pengembangan AI yang aman. 

Laporan Singapore Consensus on Global AI Safety Research Priorities menetapkan tiga fokus utama: mengukur dampak AI, menentukan bagaimana AI seharusnya bertindak, dan mengendalikan perilakunya.

Tegmark mengatakan bahwa semangat kerja sama internasional kembali muncul setelah pertemuan puncak AI terakhir di Paris. 

"Rasanya, suramnya suasana dari Paris sudah berlalu dan kolaborasi internasional kini bangkit kembali," ujarnya.

Editor: Candra Mega Sari

Tag:  #seberapa #besar #risiko #super #lepas #kendali #temukan #angka #mengejutkan

KOMENTAR