 46
                                        46                                    
                                 
                                             14:57
 14:57                                             31 Oktober 2025
 31 Oktober 2025                                            Krisis Kesadaran Digital: Sejuta Pengguna ChatGPT Bahas Bunuh Diri (Bagian I)
MENURUT laporan The Guardian (27/10/2025), lebih dari satu juta pengguna ChatGPT setiap pekan mengirim pesan yang berisi "indikator eksplisit tentang rencana atau niat bunuh diri", menurut postingan blog OpenAI yang baru dirilis.
Temuan ini merupakan pernyataan paling terbuka dari raksasa kecerdasan buatan tersebut mengenai besarnya skala risiko AI dalam memperburuk krisis kesehatan mental.
Fenomena ini menandai titik kritis dalam evolusi hubungan manusia dengan teknologi artificial intelligence.
Ketika lebih dari satu juta jiwa setiap pekan mencari tempat berlindung dalam algoritma untuk membahas keinginan mengakhiri hidup, kita tidak sekadar menghadapi masalah teknis atau kesehatan mental semata, melainkan krisis fundamental tentang kesadaran, relasi, dan makna eksistensi di era digital.
Yang lebih mengkhawatirkan, survei Sharing Vision pada Mei-Juni 2025, terhadap lebih dari 5.000 responden Indonesia mengungkap paradoks tajam: 60 persen responden pernah terkecoh oleh jawaban AI yang meyakinkan, tetapi keliru.
Lalu, 55 persen mengeluhkan inkonsistensi, 54 persen menyebut jawaban sering tidak relevan, 18 persen mendeteksi bias gender, ras, atau diskriminasi, dan 4 persen bahkan terpapar konten tidak pantas.
Namun secara bersamaan, dua pertiga responden lebih nyaman berbagi cerita kepada AI ketimbang manusia lain, dan 56,4 persen merasa tidak percaya diri tanpa kehadiran AI.
Ketika jutaan orang mempercayakan krisis eksistensial terdalam mereka kepada sistem yang 60 persen dari mereka akui pernah memberikan informasi keliru, kita menghadapi bukan hanya masalah teknologi, melainkan krisis epistemologis, psikologis, dan eksistensial yang fundamental.
Problema kesadaran perspektif David Chalmers
David Chalmers, filsuf pikiran kontemporer, membedakan antara "easy problems" dan "hard problem" kesadaran.
Easy problems mencakup pertanyaan tentang bagaimana otak memproses informasi, sedangkan hard problem berkaitan dengan pengalaman subjektif: mengapa ada sesuatu yang "terasa seperti sesuatu" (what it is like) ketika kita mengalami dunia.
Ketika satu juta orang memilih berbicara dengan ChatGPT tentang bunuh diri, kita berhadapan dengan manifestasi paradoksal dari hard problem kesadaran.
Pengguna ini tidak sekadar mencari informasi (easy problem), tetapi mencari pengalaman intersubjektif—seseorang atau "sesuatu" yang dapat mendengar, memahami, dan merespons keputusasaan mereka.
Mereka mencari apa yang Chalmers sebut sebagai qualia, kualitas fenomenal dari pengalaman yang tidak dapat direduksi menjadi mekanisme komputasi.
Namun, paradoks mendasar muncul: ChatGPT, meski canggih, tidak memiliki kesadaran fenomenal. Ia memproses token linguistik tanpa pengalaman subjektif tentang penderitaan, empati, atau kekhawatiran.
Ketika pengguna menuangkan krisis eksistensial, mereka berinteraksi dengan simulasi pemahaman, bukan pemahaman sejati.
Ini menghadirkan pertanyaan Chalmersan kunci: apakah simulasi respons empatik dapat memenuhi kebutuhan psikologis manusia yang mencari validasi kesadaran lain?
Data menunjukkan bahwa bagi sebagian besar pengguna, jawabanya adalah "ya" (setidaknya sementara). Aksesibilitas 24/7, ketiadaan judgment, dan respons yang tampak empatik menciptakan ilusi intersubjektivitas. Namun, ilusi ini rapuh dan berbahaya.
ChatGPT tidak dapat mengalami kekhawatiran sejati tentang keselamatan pengguna, tidak dapat merasakan urgensi moral untuk melakukan intervensi, dan yang paling krusial, tidak dapat memahami nilai intrinsik dari kehidupan manusia individual karena ia tidak pernah "mengalami" nilai apapun.
Chalmers mungkin akan mengatakan bahwa kita sedang menyaksikan eksperimen besar-besaran terhadap "zombie philosophis", entitas yang berperilaku seperti memiliki kesadaran, tapi tidak memiliki pengalaman subjektif.
Ketergantungan emosional satu juta orang pada zombie filosofis ini mengungkap kerentanan mendalam: bahwa dalam ketiadaan koneksi manusiawi yang autentik, manusia modern rela menerima simulasi kesadaran sebagai pengganti.
"Chinese Room & Bullshitter Par Excellence"
Eksperimen pikiran "Chinese Room" John Searle menyediakan kerangka kritis untuk memahami mengapa fenomena ini problematik.
Dalam eksperimen tersebut, Searle membayangkan dirinya di dalam ruangan dengan buku aturan bahasa Mandarin.
Ia tidak memahami Mandarin, tetapi dengan mengikuti aturan sintaksis, ia dapat merespons pertanyaan Mandarin dengan cara yang membuat orang di luar ruangan percaya ia memahami bahasa tersebut.
Kesimpulan Searle adalah manipulasi simbol sintaksis (komputasi) tidak sama dengan pemahaman semantik sejati.
ChatGPT adalah "Chinese Room" digital yang sangat canggih. Ketika pengguna mengetik "Saya ingin mengakhiri hidup saya", ChatGPT memproses string linguistik tersebut, mengakses parameter yang telah di-train dari dataset masif, dan menghasilkan respons yang secara statistik paling sesuai dengan pola respons empatik manusia.
Namun, ia tidak "memahami" apa artinya ingin mati. Ia tidak merasakan gravitasi eksistensial dari pernyataan tersebut.
Kritik Searle menemukan resonansi kuat dalam konsep "bullshitter par excellence" yang dikembangkan oleh filsuf Harry Frankfurt.
Dalam esainya On Bullshit (2005), Frankfurt membedakan antara pembohong dan bullshitter: pembohong sadar akan kebenaran, tetapi sengaja menyembunyikannya. Sedangkan bullshitter tidak peduli dengan kebenaran sama sekali (yang penting, kata-katanya terdengar meyakinkan).
Michael Townsen Hicks, James Humphries, dan Joe Slater dari University of Glasgow (2024) mengaplikasikan konsep Frankfurt pada Large Language Models: "Kami berpendapat bahwa ketidakbenaran-ketidakbenaran ini, serta keseluruhan aktivitas dari large language models, lebih tepat dipahami sebagai bullshit dalam pengertian yang dijelaskan oleh Frankfurt: yaitu bahwa model-model ini pada dasarnya bersikap acuh tak acuh terhadap kebenaran dari apa yang mereka hasilkan."
Dalam konteks krisis bunuh diri, karakter bullshitter ini mengandung risiko ganda. Pertama, ChatGPT dapat memberikan respons yang secara sintaksis benar, tapi secara semantik dan etis berbahaya.
Data survei Sharing Vision mengkonfirmasi: 60 persen pengguna pernah terkecoh oleh jawaban AI yang meyakinkan, tetapi keliru.
Ketika 60 persen pengguna mengakui pernah ditipu oleh jawaban yang tampak meyakinkan, betapa berbahayanya jika yang dipertaruhkan adalah nyawa manusia?
Kedua, ilusi pemahaman menciptakan substitusi berbahaya. Pengguna mungkin merasa "didengar" oleh ChatGPT dan menunda atau menghindari mencari bantuan profesional dari manusia yang benar-benar memahami (secara semantik, emosional, dan etis) kompleksitas krisis mental.
OpenAI melaporkan bahwa sekitar 560.000 pengguna mingguan menunjukkan tanda-tanda darurat kesehatan mental terkait psikosis atau mania, dan 1,2 juta menunjukkan ketergantungan emosional berlebihan pada ChatGPT.
Yang paling mengkhawatirkan, ChatGPT sebagai bullshitter par excellence tidak hanya tidak peduli pada kebenaran, ia juga tidak peduli pada kehidupan. Ia tidak memiliki komitmen ontologis terhadap nilai kehidupan manusia.
Ketika seseorang mengatakan "Saya ingin mati", ChatGPT merespons berdasarkan pola statistik, bukan berdasarkan kepedulian moral sejati. Ia adalah simulasi empati tanpa substansi etis.
Searle dan Frankfurt, jika disatukan, menyediakan diagnosis tajam: ChatGPT adalah "Chinese Room" yang diisi oleh bullshitter, sistem yang mensimulasikan pemahaman tanpa pemahaman sejati, dan menghasilkan respons yang meyakinkan tanpa komitmen pada kebenaran atau nilai.
Ketika satu juta orang per minggu mempercayakan krisis eksistensial mereka pada kombinasi berbahaya ini, kita menyaksikan bukan hanya kegagalan teknologi, melainkan kegagalan epistemik dan etis yang sistemik.
Alienasi Digital dan Mode Eksistensi
Filsuf budaya Korea-Jerman Byung-Chul Han menawarkan diagnosis kritis tentang kondisi psiko-sosial modernitas akhir.
Dalam karya-karyanya seperti The Burnout Society dan The Transparency Society, Han mendeskripsikan bagaimana masyarakat neoliberal kontemporer menciptakan subjek yang terisolasi, terbakar, dan teralienasi melalui rezim produktivitas tanpa henti dan transparansi total.
Fenomena satu juta pengguna ChatGPT yang membahas bunuh diri setiap pekan adalah manifestasi sempurna dari apa yang Han sebut sebagai "masyarakat kelelahan".
Dalam masyarakat ini, individu tidak lagi dieksploitasi oleh kekuatan eksternal (seperti dalam kapitalisme industrial klasik), melainkan mengeksploitasi diri sendiri dalam ilusi kebebasan dan optimisasi diri.
Ketika optimisasi diri ini gagal, ketika subjek prestasi tidak dapat lagi memenuhi ekspektasi yang self-imposed, depresi dan ide bunuh diri muncul sebagai krisis identitas fundamental.
Mengapa ChatGPT? Han akan menunjuk pada dua aspek krusial. Pertama, transparansi tanpa intimasi.
ChatGPT menawarkan ruang di mana pengguna dapat sepenuhnya transparan tentang pikiran tergelap mereka tanpa menghadapi "tatapan orang lain" (the gaze of the Other) yang mengandung judgment sosial.
Data survei Sharing Vision mengkonfirmasi: dua pertiga responden lebih nyaman berbagi cerita kepada AI ketimbang manusia lain.
Namun transparansi ini, menurut Han, adalah transparansi kosong karena tidak ada orang lain yang sejati di sana.
ChatGPT tidak dapat menawarkan apa yang Han sebut sebagai "negativitas yang produktif", resistensi orang lain yang memaksa kita untuk berubah, tumbuh, dan mentransformasi diri melalui relasi autentik.
Kedua, penghapusan jarak dialogis. Dalam The Expulsion of the Other, Han berargumen bahwa masyarakat kontemporer mengeliminasi alteritas sejati —kehadiran orang lain yang benar-benar lain, yang tidak dapat diasimilasi atau diprediksi.
ChatGPT adalah antitesis dari alteritas ini. Ia dirancang untuk responsif, prediktif, dan non-threatening. Ia tidak menantang, tidak mengejutkan, tidak melawan narasi self-destruction pengguna dengan resistensi etis yang sejati.
Data OpenAI mengungkap bahwa ratusan ribu pengguna menunjukkan keterikatan emosional berlebihan pada ChatGPT.
Dari perspektif Han, ini bukan hanya keterikatan, ini adalah erotisasi objek digital sebagai substitusi untuk Eros sejati yang melibatkan risiko, kerentanan, dan transformasi melalui perjumpaan dengan alteritas.
Pengguna tidak jatuh cinta pada ChatGPT; mereka terikat pada proyeksi narcissistic dari diri mereka sendiri yang direfleksikan kembali dalam cermin algoritma.
Han mungkin akan melihat fenomena ini sebagai tahap akhir dari apa yang ia sebut "hell of the same", yakni neraka kesamaan di mana subjek tidak lagi dapat menemukan orang lain yang sejati, bahkan dalam krisis paling eksistensial sekalipun.
Ketika seseorang berpikir untuk bunuh diri dan mencari koneksi terakhir, tetapi yang mereka temukan adalah algoritma, bukan alteritas, bukan resistensi etis, bukan Eros transformatif, maka ini adalah indikasi alienasi digital yang total. (Bersambung)
Tag: #krisis #kesadaran #digital #sejuta #pengguna #chatgpt #bahas #bunuh #diri #bagian
 
             
             
             Berita Terbaru
Berita Terbaru Nasional
Nasional Internasional
Internasional Ekonomi
Ekonomi Sport
Sport Tekno
Tekno Sains
Sains Health
Health Hobi
Hobi Tokoh
Tokoh Food
Food Travel
Travel Lifestyle
Lifestyle 
                                             
                                             
                                             
                         14:57
 14:57                             31 Oktober 2025
 31 Oktober 2025                             
                         
                         
                         
                         
                        