Microsoft Bilang Copilot AI Jangan Dipakai untuk Hal Penting, Kenapa?
Ilustrasi Microsoft Copilot Studio merupakan platform untuk membuat robot percakapan (chatbot) AI Copilot yang bisa disesuaikan sedemikian rupa (custom) sesuai dengan kebutuhan perusahaan dan penggunanya. Platform ini pertama kali diluncurkan pada November 2023.(SIPA US/Alamy)
13:36
14 April 2026

Microsoft Bilang Copilot AI Jangan Dipakai untuk Hal Penting, Kenapa?

- Microsoft menjadi sorotan setelah isi ketentuan penggunaan layanan AI Copilot menyebut bahwa layanan tersebut ditujukan untuk kebutuhan “hiburan” dan tidak seharusnya dijadikan acuan untuk hal-hal penting.

Dalam dokumen itu, Microsoft juga mengingatkan bahwa Copilot bisa saja memberikan jawaban yang keliru atau tidak berfungsi sesuai harapan.

Maka dari itu, pengguna diminta untuk tidak sepenuhnya mengandalkan Copilot saat mengambil keputusan penting. Microsoft juga menegaskan bahwa penggunaan layanan tersebut tetap memiliki risiko yang harus dipahami oleh pengguna sendiri.

Baca juga: Daftar Menu Toolbar Microsoft Word, Fungsi, dan Bagian-Bagiannya

Pernyataan Microsoft dinilai bertolak belakang

Pernyataan ini memicu tanda tanya karena dianggap bertolak belakang dengan langkah Microsoft selama ini.

Di satu sisi, perusahaan terus mendorong kehadiran Copilot di berbagai produk mereka, mulai dari Windows 11 hingga layanan bisnis dan produktivitas. Copilot bahkan dipromosikan sebagai asisten AI yang bisa membantu berbagai pekerjaan harian.

Sorotan terhadap klausul tersebut makin ramai setelah dibahas luas di media sosial. Banyak orang mempertanyakan seberapa besar keyakinan Microsoft terhadap teknologi buatannya sendiri, mengingat Copilot selama ini dipasarkan sebagai alat bantu untuk meningkatkan efisiensi dan produktivitas.

Microsoft sebut itu bahasa lama

Menanggapi polemik tersebut, Microsoft menjelaskan bahwa frasa “untuk tujuan hiburan” merupakan bahasa lama atau legacy language dari masa ketika Copilot masih lebih dekat dengan fungsi pendamping mesin pencari Bing.

Menurut Microsoft, ketentuan itu akan diperbarui karena sudah tidak lagi sesuai dengan posisi dan penggunaan Copilot saat ini.

Meski begitu, peringatan seperti ini sebenarnya bukan sesuatu yang asing di industri AI. Banyak perusahaan teknologi juga menyertakan disclaimer serupa untuk membatasi tanggung jawab hukum mereka. Langkah itu diambil karena teknologi AI generatif masih berpotensi menghasilkan informasi yang salah, tidak akurat, atau halusinasi.

Pengguna tetap diminta waspada

Kasus ini juga menyoroti fenomena yang dikenal sebagai automation bias, yaitu kecenderungan pengguna untuk terlalu percaya pada hasil yang diberikan mesin. Padahal, para ahli mengingatkan bahwa informasi dari AI tetap harus dicek ulang secara mandiri, apalagi jika dipakai untuk pekerjaan, keputusan profesional, atau urusan penting lainnya.

Maka dari itu, meski Copilot dan layanan AI lain semakin banyak dipakai dalam aktivitas sehari-hari, pengguna tetap disarankan untuk bersikap kritis. Hasil yang diberikan AI sebaiknya diperlakukan sebagai alat bantu, bukan sumber mutlak yang bisa dipercaya tanpa verifikasi.

Baca juga: Meta Tendang ChatGPT dan Copilot dari WhatsApp

Dapatkan update berita teknologi dan gadget pilihan setiap hari. Mari bergabung di Kanal WhatsApp KompasTekno.

Caranya klik link https://whatsapp.com/channel/0029VaCVYKk89ine5YSjZh1a. Anda harus install aplikasi WhatsApp terlebih dulu di ponsel.

Tag:  #microsoft #bilang #copilot #jangan #dipakai #untuk #penting #kenapa

KOMENTAR