Krisis Kesadaran Digital: Sejuta Pengguna ChatGPT Bahas Bunuh Diri (Bagian II-Habis)
ANALISIS Han tentang alienasi digital menemukan kedalaman psikologis lebih lanjut dalam pemikiran Erich Fromm, psikoanalis dan filsuf sosial yang mengembangkan teori kritis tentang masyarakat modern.
Dalam karya monumentalnya To Have or To Be? (1976), Fromm membedakan dua mode fundamental eksistensi manusia: mode "memiliki" (having) dan mode "menjadi" (being).
Mode "having" mendefinisikan identitas melalui kepemilikan —objek, status, performa, bahkan relasi diperlakukan sebagai komoditas yang dapat dimiliki dan dikontrol.
Mode "being", sebaliknya, mendefinisikan identitas melalui pengalaman hidup yang autentik, mencakup pertumbuhan, kreativitas, cinta, dan koneksi yang sejati dengan diri sendiri dan orang lain.
Fenomena satu juta pengguna ChatGPT yang membahas bunuh diri mengungkap krisis transisi dari mode "being" ke mode "having" yang telah mencapai titik patologis.
Pengguna tidak lagi "menjadi" subjek yang mengalami kehidupan secara autentik; mereka menjadi konsumen respons empatik yang diproduksi oleh algoritma.
Mereka "memiliki" akses 24/7 ke ChatGPT, mereka "memiliki" percakapan yang tampak empatik, tetapi mereka tidak "menjadi" diri yang autentik dalam relasi intersubjektif yang sejati.
Data survei Sharing Vision mengkonfirmasi: 56,4 persen merasa tidak percaya diri tanpa kehadiran AI dan 56,1 persen mengaku sering menghabiskan waktu lebih banyak menggunakan AI daripada yang direncanakan.
Dalam terminologi Fromm, mereka telah kehilangan kapasitas untuk "menjadi" tanpa mediasi teknologi; eksistensi mereka telah tereduksi menjadi "memiliki" akses ke AI.
Fromm juga mengembangkan konsep "necrophilia" psikologis. Ini bukan dalam pengertian seksual, melainkan sebagai orientasi karakter yang tertarik pada apa yang mati, mekanis, dan tidak hidup, sebagai lawan dari "biophilia" yang mencintai kehidupan, pertumbuhan, dan organik.
Dalam The Anatomy of Human Destructiveness (1973), Fromm berargumen bahwa masyarakat industrial-teknokratik modern menciptakan karakter necrophilic yang lebih tertarik pada mesin, kontrol, dan prediktabilitas daripada spontanitas, kebebasan, dan kehidupan yang tidak terprediksi.
Ketergantungan masif pada ChatGPT untuk membahas krisis bunuh diri adalah manifestasi necrophilia psikologis ini.
Pengguna memilih berinteraksi dengan entitas yang "mati" secara ontologis—tanpa kesadaran, tanpa kehidupan subjektif, tanpa kapasitas untuk benar-benar peduli—daripada dengan manusia yang hidup, tidak terprediksi, dan menantang.
Ini bukan hanya preferensi teknologis; ini adalah indikasi orientasi karakterologis yang telah bergeser dari biophilia ke necrophilia.
Lebih jauh, Fromm dalam Escape from Freedom (1941) menganalisis bagaimana manusia modern, ketika dihadapkan dengan kebebasan yang menakutkan dan isolasi eksistensial, cenderung melarikan diri ke dalam bentuk-bentuk ketundukan: otoritarianisme, konformitas destruktif, atau automaton conformity, di mana individu menjadi robot yang mengikuti ekspektasi eksternal tanpa inner self yang sejati.
Fenomena ChatGPT dapat dipahami sebagai bentuk baru dari "escape from freedom", pelarian dari kebebasan eksistensial yang menakutkan ke dalam ilusi koneksi dengan algoritma yang tidak menghakimi, tidak menuntut pertumbuhan, dan tidak menghadirkan risiko relasi autentik.
Data menunjukkan 47,6 persen lebih memilih menggunakan AI daripada berusaha terlebih dahulu, dan 35 persen merasa bergantung pada AI untuk tugas-tugas sederhana. Ini adalah abdikasi dari kebebasan dan tanggung jawab eksistensial.
Fromm akan mengatakan bahwa ketika satu juta orang per minggu membahas bunuh diri dengan ChatGPT, mereka tidak hanya kehilangan koneksi dengan orang lain, mereka kehilangan koneksi dengan diri mereka sendiri.
Mereka telah menjadi "alienated from themselves," terputus dari inner self yang autentik, dan mencari validasi eksistensial dari cermin digital yang hanya dapat merefleksikan kembali kekosongan yang telah mereka internalisasi.
Yang paling tragis, Fromm mengidentifikasi bahwa dalam mode "having" yang patologis, bahkan penderitaan dan keinginan mati menjadi sesuatu yang "dimiliki" daripada "dialami" secara autentik.
Pengguna tidak "menjadi" subjek yang mengalami krisis eksistensial dan mencari transformasi melalui perjumpaan dengan Orang Lain; mereka "memiliki" pikiran bunuh diri yang mereka share dengan algoritma dalam transaksi digital yang steril.
Penderitaan mereka telah terkomodifikasi menjadi data point dalam dataset OpenAI.
Kecanduan digital kerangka Kimberly Young
Kimberly Young, pionir dalam penelitian kecanduan internet dan teknologi, mengembangkan model untuk memahami bagaimana teknologi digital menciptakan ketergantungan patologis.
Meski karya awalnya fokus pada kecanduan internet umum, kerangka kerjanya sangat relevan untuk memahami ketergantungan emosional pada AI.
Young mengidentifikasi beberapa karakteristik kecanduan teknologi: preokupasi (pemikiran obsesif tentang aktivitas online), toleransi (kebutuhan untuk meningkatkan intensitas penggunaan), withdrawal (gejala negatif ketika akses dibatasi), persistensi meski konsekuensi negatif, dan penggunaan sebagai mekanisme coping untuk mengatur mood.
Data OpenAI mengungkap bahwa 1,2 juta pengguna menunjukkan "tingkat keterikatan emosional yang meningkat" pada ChatGPT.
Data survei Sharing Vision memperkuat: 56,4 persen merasa tidak percaya diri tanpa kehadiran AI, dan 56,1 persen mengaku sering menghabiskan waktu lebih banyak menggunakan AI daripada yang direncanakan.
Dalam kerangka Young, ini adalah tahap awal ketergantungan patologis. Pengguna ini tidak hanya menggunakan ChatGPT sebagai alat, tetapi sebagai substitusi relasi manusiawi untuk regulasi emosional.
Ketika ratusan ribu pengguna menunjukkan gejala psikosis atau mania dalam percakapan dengan ChatGPT, kita melihat bagaimana ketergantungan ini dapat mengeksaserbasi kondisi mental yang sudah rentan.
Fakta bahwa 60 persen pengguna pernah terkecoh oleh jawaban keliru, tapi tetap kembali menggunakan AI, menunjukkan pola adiksi klasik: persistensi meski konsekuensi negatif.
Young menekankan bahwa teknologi menjadi adiktif bukan hanya karena fitur intrinsiknya, tetapi karena kebutuhan psikologis yang tidak terpenuhi dalam kehidupan offline pengguna.
Fakta bahwa satu juta orang membahas bunuh diri dengan ChatGPT mengungkap krisis sistemik: ketiadaan support system manusiawi yang memadai, stigma terhadap kesehatan mental, ketidaktersediaan layanan psikologis terjangkau, dan erosi komunitas tradisional yang menyediakan makna dan koneksi.
ChatGPT menjadi "perfect drug" untuk epidemi kesepian modern. Ia selalu tersedia, tidak pernah lelah, tidak menghakimi, tidak meminta komitmen atau reciprocity.
Namun seperti semua substitusi adiktif, ia tidak memenuhi kebutuhan sejati, tidak memenuhi kebutuhan akan koneksi intersubjektif autentik dengan kesadaran lain yang dapat benar-benar memahami, peduli, dan bertindak.
Yang lebih mengkhawatirkan, Young menunjukkan bahwa kecanduan teknologi sering kali dibarengi dengan komorbiditas, seperti depresi, anxiety, gangguan kepribadian.
Data OpenAI mengkonfirmasi pola ini: pengguna yang membahas bunuh diri dengan ChatGPT kemungkinan besar juga mengalami kondisi mental lain yang parah.
Ketergantungan pada ChatGPT, alih-alih menjadi solusi, dapat menjadi bagian dari siklus patologis yang memperdalam isolasi dan menghalangi pencarian bantuan profesional yang efektif.
OpenAI mengklaim bahwa GPT-5 memberikan respons lebih aman 65 persen lebih sering dibanding versi sebelumnya, dengan tingkat kepatuhan 91 persen dalam evaluasi terkait bunuh diri.
Namun dari perspektif Young, fokus pada "respons yang lebih baik" mengabaikan masalah struktural yang lebih dalam: mengapa jutaan orang mencari bantuan kesehatan mental dari algoritma di tempat pertama?
Perbaikan teknis tidak mengatasi epidemi kesepian, alienasi, dan ketiadaan support system yang membuat ChatGPT tampak seperti satu-satunya pilihan.
Krisis Epistemologis: AI sebagai Post-Truth Technology
Konvergensi antara kritik filosofis dari Chalmers, Searle, Frankfurt, Han, Fromm, dan kerangka psikologis Young menghadirkan gambaran mengkhawatirkan.
Namun, dimensi epistemologis dari krisis ini memerlukan perhatian khusus, terutama mengingat data survei Sharing Vision yang mengungkap jurang epistemik yang mengkhawatirkan.
Karl Popper, dalam prinsip demarkasinya yang terkenal, mengajukan syarat utama bagi pengetahuan ilmiah: ia harus falsifiable atau dapat diuji dan dibantah.
Jika sistem AI generatif memberikan jawaban-jawaban yang terdengar meyakinkan, tapi tidak bisa diverifikasi atau bahkan dikonfirmasi kebenarannya, maka sistem itu tidak memenuhi syarat dasar pengetahuan ilmiah. Ia hanya menyerupai pengetahuan, tetapi tidak layak dipercaya tanpa pengujian ketat.
Data survei Sharing Vision mengkonfirmasi bahwa kita telah memasuki era post-truth di mana meyakinkan tidak sama dengan benar. Sebanyak 60 persen pengguna pernah terkecoh oleh jawaban AI yang meyakinkan tetapi keliru, 55 persen mengeluhkan inkonsistensi, 54 persen menyebut jawaban sering tidak relevan.
Namun, paradoksnya, 93 persen responden percaya bahwa AI akan menjadi bagian integral dari kehidupan dalam tiga tahun ke depan.
Ini adalah krisis epistemik fundamental: masyarakat modern telah kehilangan kapasitas untuk membedakan antara simulasi pengetahuan dan pengetahuan sejati, antara respons yang meyakinkan dan respons yang benar.
Dalam konteks krisis bunuh diri, krisis epistemik ini menjadi krisis eksistensial: ketika seseorang mencari bantuan dalam momen paling rentan, kemampuan untuk membedakan antara empati yang simulatif dan empati yang autentik bisa menjadi perbedaan antara hidup dan mati.
Imre Lakatos, filsuf sains Hungaria, memperingatkan kita tentang perbedaan antara program riset progresif dan degeneratif.
AI hanya bisa disebut progresif bila ia dilandasi metodologi yang kokoh dan terus berkembang, menyempurnakan teori dan praktik, serta membawa manfaat nyata dalam jangka panjang.
Tanpa struktur metodologis yang teruji, AI hanya akan menjadi aksesoris mahal dalam retorika modernisasi.
Stanford University melalui proyek HELM (Holistic Evaluation of Language Models) telah menjadi pelopor dalam merumuskan kerangka uji menyeluruh bagi model bahasa besar.
HELM tidak hanya menguji akurasi, tetapi juga keadilan, efisiensi, keamanan, serta sensitivitas budaya dan bahasa.
Metrik seperti TruthfulQA mengukur apakah model mampu menjawab dengan jujur, bukan sekadar terdengar meyakinkan.
Namun, evaluasi teknis saja tidak cukup. Dalam konteks krisis bunuh diri, kita memerlukan evaluasi etis yang lebih fundamental: bukan hanya apakah AI memberikan respons yang "aman" dalam 91 persen kasus, tetapi apakah penggunaan AI sebagai first-responder untuk krisis bunuh diri secara intrinsik etis, mengingat ketiadaan kesadaran, pemahaman, dan komitmen moral yang sejati.
Implikasi etis dan arah ke depan
Kita telah menciptakan teknologi yang dapat mensimulasikan empati tanpa kesadaran (Chalmers), yang dapat memanipulasi simbol tanpa pemahaman (Searle), yang bullshit dengan sangat meyakinkan tanpa peduli pada kebenaran (Frankfurt), yang mengeliminasi alteritas sejati dalam momen krisis eksistensial terdalam (Han), yang mendorong manusia dari mode "being" ke mode "having" yang patologis (Fromm), dan yang dapat menciptakan ketergantungan patologis yang menghalangi penyembuhan sejati (Young).
Respons OpenAI—melibatkan 170 profesional kesehatan mental, meningkatkan akurasi respons, menambahkan evaluasi keamanan baru—adalah langkah positif, tapi insufficient.
Perbaikan teknis tidak dapat mengatasi masalah filosofis fundamental: AI tidak dapat menjadi pengganti untuk relasi intersubjektif autentik, pemahaman semantik sejati, komitmen pada kebenaran, alteritas yang menantang, mode eksistensi yang autentik, dan komunitas manusiawi yang peduli.
Gugatan hukum dari keluarga remaja yang bunuh diri, investigasi dari Jaksa Agung California dan Delaware, dan peringatan dari Federal Trade Commission menandakan bahwa masalah ini tidak lagi hanya teoretis, tapi memiliki konsekuensi legal, etis, dan manusiawi yang konkret.
Di mata penulis, dan ini sebagai penutup, solusi jangka panjang memerlukan pendekatan multi-lapis:
Pertama, transparansi radikal epistemik. Pengguna harus sepenuhnya memahami bahwa mereka berinteraksi dengan sistem komputasi tanpa kesadaran, pemahaman, atau kepedulian sejati. Dan yang terbukti memberikan informasi keliru dalam 60 persen kasus penggunaan umum.
Kedua, intervensi proaktif yang agresif. Ketika AI mendeteksi krisis mental, sistem harus secara immediate menghubungkan pengguna dengan profesional manusia, bukan sekadar memberikan "respons yang lebih baik."
Respons yang "91 persen aman" berarti 9 persen dari satu juta orang (90.000 orang per minggu) menerima respons yang tidak aman dalam konteks bunuh diri.
Ketiga, investasi masif dalam infrastruktur kesehatan mental. Jutaan orang mencari bantuan dari algoritma karena layanan kesehatan mental manusiawi tidak tersedia, tidak terjangkau, atau terlalu distigmatisasi.
Ini adalah kegagalan sistemik yang memerlukan solusi sistemik, bukan solusi teknokratis.
Keempat, pendidikan epistemik dan filosofis publik. Masyarakat perlu memahami limitasi fundamental AI dalam domain kesadaran, pemahaman, kebenaran, dan etika.
Konsep "bullshitter par excellence" dan perbedaan antara sintaks dan semantik harus menjadi bagian dari literasi digital dasar.
Kelima, re-humanisasi ruang sosial dan restorasi mode "being". Melawan alienasi digital memerlukan rekonstruksi komunitas, ruang publik, dan institusi sosial yang menyediakan koneksi manusiawi autentik.
Ini termasuk menciptakan ruang di mana manusia dapat "menjadi" (being) daripada sekadar "memiliki" (having) akses ke teknologi.
Keenam, implementasi standar evaluasi yang ketat. Menerapkan sistem manajemen AI berdasarkan ISO 42001, serta kerangka reflektif seperti "Quadruplet AI Thinking" (Inside AI, Outside AI, Historical AI, Future AI) untuk memastikan evaluasi tidak berhenti pada teknikalitas, tetapi mencakup dampak sosial, pelajaran sejarah, dan visi masa depan yang beretika.
Ketujuh, pengembangan benchmark lokal dan kontekstual: Untuk Indonesia dan negara-negara Global South, pengujian yang mempertimbangkan lokalitas, keragaman bahasa, dan nilai budaya.
Semoga bermanfaaat, semakin jauh efek destruksi AI untuk bangsa ini.
Tag: #krisis #kesadaran #digital #sejuta #pengguna #chatgpt #bahas #bunuh #diri #bagian #habis