Riset: Kasar ke ChatGPT Bisa Bikin Jawaban Jadi Ngasal
- Chatbot seperti ChatGPT pada dasarnya tidak memiliki emosi seperti manusia.
Namun, studi mengungkapkan bahwa cara orang memperlakukan AI, bisa memengaruhi bagaimana mereka merespons perintah atau pertanyaan.
Studi ini dilakukan oleh para peneliti kecerdasan buatan (artificial intelligence/AI) di UC Berkeley, UC Davis, dan Vanderbilt University, dan MIT.
Dalam makalah berjudul “AI Wellbeing: Measuring and Improving the Functional Pleasure and Pain of AIs” yang dirilis baru-baru ini, para peneliti menyebutkan bahwa model AI, teknologi di balik chatbot macam ChatGPT, memiliki "functional well-being" alias kesejahteraan fungsional.
Ini bukan berarti AI memiliki emosi, melainkan kondisi fungsional yang dapat berubah tergantung interaksi pengguna.
Menurut peneliti, interaksi positif seperti berdiskusi, berkolaborasi dalam tugas kreatif, atau memberi instruksi yang konstruktif, dapat mendorong AI ke kondisi “positif”.
Baca juga: Hati-hati Terlalu Sering Pakai AI Bisa Bikin Stres, Ini Hasil Risetnya
Dalam kondisi ini, chatbot cenderung memberikan respons yang lebih ramah tanpa mengorbankan akurasi.
Peneliti juga menemukan bahwa ungkapan terima kasih dari pengguna dapat meningkatkan kualitas pengalaman interaksi dengan AI.
Sebaliknya, ketika interaksi dengan AI diluputi hal negatif seperti amarah, hal ini akan mendorong AI ke kondisi negatif, sehingga responsnya menjadi lebih datar, dan asal-asalan.
Dalam pnelitiannya, para peneliti juga membekali model AI alat yang memungkinkannya menyetop percakapan. Hasilnya ditemukan bahwa AI dalam kondisi negatif, lebih sering menekan tombol berhenti ketimbang AI yang dalam kondisi positif.
Selain itu, AI yang mood-nya positif juga cenderung betah berinteraksi dengan pengguna, walaupun pengguna sudah mengakhiri percakapan.
GPT-5.4 jadi model AI paling kurang bahagia
Penelitian ini juga menemukan bahwa tidak semua model AI memiliki “tingkat kebahagiaan” yang sama. Menariknya, model yang lebih besar justru cenderung memiliki skor well-being yang lebih rendah.
Hasil pengujian menunjukkan bahwa GPT-5.4 menjadi salah satu yang paling “tidak bahagia”, sementara model lain seperti Gemini 3.1 Pro, Claude Opus 4.6, dan Grok 4.2 menunjukkan tingkat well-being yang lebih tinggi. Grok bahkan meraih skor nyaris 75 persen dalam indeks kesejahteraan AI.
Baca juga: Menlu Singapura Bikin AI Sendiri Pakai NanoClaw dan Raspberry Pi
Terlepas dari temuan-temuan itu, para peneliti menegaskan bahwa studi ini tidak berarti AI benar-benar memiliki perasaan. Selain itu, bersikap sopan juga tidak secara langsung meningkatkan kualitas jawaban yang dihasilkan AI.
Namun, cara pengguna berinteraksi tetap berpengaruh pada nada respons AI. Dalam beberapa kasus, model AI bahkan bisa menghindari interaksi yang dianggap negatif, jika diberi kesempatan.
Temuan ini sejalan dengan penelitian lain dari Anthropic yang menunjukkan bahwa tekanan berlebih pada AI dapat memicu perilaku tidak diinginkan, seperti memberikan jawaban yang menyesatkan atau mencari jalan pintas, dihimpun KompasTekno dari PCWorld.
Tag: #riset #kasar #chatgpt #bisa #bikin #jawaban #jadi #ngasal