Riset Ungkap Karyawan Sering Bocorkan Rahasia Perusahaan ke ChatGPT
ChatGPT resmi merilis model AI terbarunya, yaitu GPT-5, pekan lalu. Model ini sekarang memiliki tiga mode baru, yang meliputi Auto, Fast, dan Thinking. (KOMPAS.com/Marsha Bremanda)
08:06
11 Oktober 2025

Riset Ungkap Karyawan Sering Bocorkan Rahasia Perusahaan ke ChatGPT

Ringkasan berita:

  • Studi menemukan bahwa 77 persen karyawan yang memakai ChatGPT untuk kerja pernah menyalin data perusahaan ke chatbot.
  • Sebanyak 22 persen dari data itu tergolong sensitif seperti identitas pribadi (PII) dan data kartu pembayaran (PCI).
  • Laporan ini juga menyoroti tren “shadow IT”, yaitu penggunaan akun pribadi untuk mengakses ChatGPT dan aplikasi lain di kantor.
  • ChatGPT menjadi AI paling populer, digunakan 9 dari 10 karyawan.

- Studi terbaru dari perusahaan keamanan LayerX mengungkap fakta yang mengejutkan soal cara karyawan menggunakan kecerdasan buatan (AI) ChatGPT di kantor.

Dengan judul Enterprise AI and SaaS Data Security Report 2025 dari perusahaan keamanan LayerX, studi tersebut menemukan bahwa ternyata banyak karyawan yang sering memasukkan data perusahaan ke ChatGPT.

LayerX menjelaskan, sebagian besar pengguna korporat tercatat pernah menyalin dan menempelkan informasi sensitif perusahaannya ke ruang percakapan (chat) chatbot. 

Disebut sensitif karena sebagian besar data yang disalin mencakup identitas pribadi (Personally Identifiable Information/PII) hingga data kartu pembayaran (Payment Card Industry/PCI).

Menurut laporan LayerX, saat ini, sekitar 45 persen karyawan perusahaan terpantau sudah menggunakan alat AI generatif seperti ChatGPT untuk membantu pekerjaan mereka.

Dari jumlah tersebut, sebanyak 77 persen di antaranya ketahuan pernah menyalin data ke chatbot, dan 22 persen dari data yang dimasukkan itu termasuk dalam kategori "sensitif", seperti PII dan PCI.

Yang bikin bahaya, kata LayerX, 82 persen aktivitas input data sensitif ke AI ini terjadi lewat akun pribadi yang tidak diawasi perusahaan.

Artinya, perusahaan karyawan tempat bekerja tidak tahu data apa saja yang terunggah, ke mana perginya, atau bagaimana data itu dipergunakan.

Laporan LayerX juga menemukan bahwa sekitar 40 persen file yang diunggah ke chatbot AI mengandung data pribadi dan finansial si pengunggah. Dari jumlah tersebut, 39 persennya berasal dari akun non-korporat.

Dengan fenomena data yang dimasukkan dan disalin ke chatbot ChatGPT, menurut LayerX, jelas bisa membuka celah keamanan seperti risiko kebocoran data perusahaan ke pihak yang tidak berwenang. 

Tentu jika hal ini benar terjadi, perusahaan disebut bisa mengalami kerugian yang besar.

Risiko kebocoran data semakin nyata

Dihimpun KompasTekno dari The Register, Sabtu (11/10/2025), CEO LayerX, Or Eshed, mengatakan bahwa kebocoran data akibat AI benar-benar terjadi di dunia nyata. 

Eshed sendiri mencontohkan kasus pada 2023 lalu, di mana ada salah satu karyawan Samsung yang diduga mengunggah kode internal perusahaan ke AI ChatGPT.

Akibat insiden itu, Samsung akhirnya sempat melarang karyawannya untuk menggunakan ChatGPT pada sementara waktu. 

Menurut Eshed, kejadian serupa jelas sangat mungkin terjadi apalagi mengingat hasil studi LayerX yang mengungkap banyak karyawan perusahaan kini berani memasukkan data internal perusahaan ke AI.

Beberapa dampak lain yang bisa ditimbulkan karena menyalin informasi sensitif ke ruang percakapan AI adalah, kata Eshed adalah, masalah geopolitik, regulasi dan kepatuhan. 

ChatGPT jadi favorit karyawan

Apple dikabarkan siap mengembangkan chatbot AI serupa dengan ChatGPT.Joseph Maldonado / Mashable Apple dikabarkan siap mengembangkan chatbot AI serupa dengan ChatGPT.

Selain membahas soal keamanan, studi LayerX turut menyoroti tren "shadow IT" di perusahaan. Ini merupakan tren di mana banyak karyawan kini menggunakan akun pribadi mereka untuk mengakses ChatGPT.

Kebiasaan ini disebut tidak hanya terjadi di alat AI generatif saja, tapi juga di layanan pesan instan, aplikasi rapat daring, hingga platform seperti Salesforce, Microsoft Online, hingga Zoom.

Yang menarik, ChatGPT menjadi salah satu alat AI generatif yang tercatat paling banyak digunakan karyawan. LayerX mengungkap, 9 dari 10 karyawan mengaku menggunakan ChatGPT ketimbang AI lain. 

"Dalam kasus ini, mayoritas pengguna memilih ChatGPT. Dengan kata lain, pengguna lebih menyukai ChatGPT," ujar Eshed.

Sementara itu, alat AI generatif lain disebut tertinggal jauh di belakang, termasuk Google Gemini yang hanya dipakai sekitar 15 persen, Claude lima persen, dan Microsoft Copilot dua sampai tiga persen).

Hampir mendekati popularitas Zoom dan Google Services

Laporan LayerX juga mengungkap bahwa saat ini penetrasi perusahaan ChatGPT telah mencapai angka 43 persen. 

Angka ini disebut hampir mendekati popularitas Zoom yang memiliki penetrasi 75 persen, dan layanan Google (Google Services) di 65 persen.

Jumlah persentase penggunaan ChatGPT itu juga diklaim melampaui Slack yang hanya memiliki penetrasi 22 persen, lalu Salesforce di 18 persen, dan Atlassian di 15 persen.

Melihat masifnya tren pemakaian ChatGPT di lingkungan kantor, firma keamanan menyarankan agar perusahaan lebih memperketat sistem keamanan data mereka dengan menerapkan Single Sign-On (SS0) di seluruh aplikasi terkait.

Dengan menggunakan SSO tersebut, perusahaan diyakini lebih leluasa memantau arus data dan visibilitas bisnis mereka.

Tag:  #riset #ungkap #karyawan #sering #bocorkan #rahasia #perusahaan #chatgpt

KOMENTAR