Microsoft Akui Ada Bug AI yang Bikin Copilot Bisa Baca E-mail Rahasia
Ilustrasi Copilot di laptop Windows 11(Microsoft)
19:09
20 Februari 2026

Microsoft Akui Ada Bug AI yang Bikin Copilot Bisa Baca E-mail Rahasia

- Asisten kecerdasan buatan (AI) Copilot milik Microsoft dilaporkan mengalami bug yang membuatnya bisa membaca email berlabel rahasia (confidential) tanpa izin. Microsoft telah mengonfirmasi masalah ini dan menyebut telah merilis perbaikan.  

Inidisen tersebut pertama kali diungkap oleh outlet media Bleeping Computer. Dalam laporannya, bug pada Microsoft 365 Copilot disebut melewati kebijakan data loss prevention (DLP) organisasi, yakni sistem keamanan yang dirancang untuk melindungi informasi sensitif. 

Adapun bug tersebut dilaporkan secara spesifik berdampak pada fitur Copilot Chat. Berdasarkan dokumentasi Microsoft, masalah ini menyebabkan e-mail yang memiliki label rahasia "diproses secara keliru" oleh Microsoft 365 Copilot Chat. 

Baca juga: Meta Tendang ChatGPT dan Copilot dari WhatsApp

Bug ini dilacak secara internal dengan kode CW1226324 dan pertama kali terdeteksi pada 21 Januari. Menurut laporan Bleeping Computer, masalah tersebut memengaruhi fitur obrolan "work tab".

Dalam pemberitahuan resminya, Microsoft menjelaskan bahwa Copilot Chat secara keliru menarik dan merangkum e-mail dari folder Sent Items dan Drafts milik pengguna.

Perusahaan menyebut, kondisi itu terjadi sekalipun e-mail telah diberi label sensitivitas yang seharusnya mencegah akses otomatis.

Dengan kata lain, e-mail dan informasi sensitif yang seharusnya tidak dapat diakses dan bersifat rahasia, justru ikut diproses oleh sistem. 

Risiko AI di lingkungan kerja

Sebagai konteks, Copilot Chat mulai digulirkan ke aplikasi Microsoft 365 (seperti Word, Excel, Outlook, dan PowerPoint) untuk pelanggan Enterprise sejak akhir tahun lalu.

Fitur Copilot Chat sendiri diposisikan sebagai asisten AI yang mampu memahami konteks konten, baik dokumen dan komunikasi kerja.

Baca juga: Microsoft Rilis Paket Langganan 365 Premium, Dapat Copilot AI dan OneDrive 6 TB

Namun, kemampuan Copilot Chat tersebut justru dinilai rentan karena membuat aspek pengamanan data menjadi krusial, terutama ketika sistem AI berinteraksi langsung dengan e-mail dan dokumen internal perusahaan. 

Dalam kondisi tertentu, perusahaan yang menggunakan asisten AI di lingkungan kerja berpotensi menghadapi ancaman tertentu, seperti prompt injection dan pelanggaran kepatuhan data. 

Microsoft sendiri telah mengonfirmasi kepada Bleeping Computer bahwa insiden ini disebabkan oleh kesalahan kode. Perusahaan mengeklaim sudah mulai meluncurkan perbaikan sejak awal Februari lalu. 

Selain merilis perbaikan, Microsoft juga menyatakan bahwa mereka terus memantau penerapan patch serta menghubungi sebagian pengguna yang terdampak, sebagaimana dihimpun KompasTekno dari Mashable, Jumat.

Tag:  #microsoft #akui #yang #bikin #copilot #bisa #baca #mail #rahasia

KOMENTAR