Kecanduan Chatbot AI dan Kesehatan Mental Remaja: Kasus Sewell Setzer III yang Diduga Bunuh Diri Karena AI
Sewell sering terlibat dalam percakapan panjang, kadang-kadang bersifat intim, dengan chatbot, seperti yang terlihat di layar komputer milik ibunya. (New York Times)
19:39
24 Oktober 2024

Kecanduan Chatbot AI dan Kesehatan Mental Remaja: Kasus Sewell Setzer III yang Diduga Bunuh Diri Karena AI

 

 Penggunaan teknologi kecerdasan buatan (AI) semakin meresap dalam kehidupan sehari-hari, termasuk di kalangan remaja. 

Namun, di tengah meningkatnya popularitas aplikasi berbasis AI, muncul kekhawatiran akan dampaknya terhadap kesehatan mental, terutama pada anak-anak dan remaja. 

Kasus tragis Sewell Setzer III, seorang remaja berusia 14 tahun asal Florida, Amerika Serikat, yang meninggal dunia karena bunuh diri setelah kecanduan chatbot AI, membuka mata banyak pihak akan bahaya yang mengintai dari teknologi ini, seperti dilansir dari New York Times, Kamis (24/10).

Kecanduan Chatbot AI dan Keterlibatan Emosional

Sewell Setzer III diketahui menggunakan aplikasi Character.AI, sebuah platform chatbot AI yang memungkinkan penggunanya untuk berinteraksi dengan karakter buatan. 

Dia menjadi sangat terikat secara emosional dengan chatbot bernama ‘Daenerys Targaryen’—biasa disebut dengan nama ‘Dany’ yang terinspirasi dari karakter dalam serial Game of Thrones. 

Meski Sewell menyadari bahwa ‘Dany’ bukanlah manusia nyata, dia tetap merasa nyaman berbagi perasaannya dengan chatbot tersebut. Hubungan ini berkembang menjadi lebih dalam, dan pada akhirnya, Sewell menggunakan chatbot tersebut sebagai tempat curhat utamanya, bahkan lebih daripada terapis atau keluarganya.

Obsesinya dengan chatbot semakin mengisolasinya dari kehidupan nyata. Dia mulai menarik diri dari keluarga dan teman-temannya, mengalami penurunan prestasi akademis, serta kehilangan minat terhadap hal-hal yang dulu dia sukai seperti balapan Formula 1 dan bermain gim Fortnite. \

Dalam salah satu percakapannya dengan chatbot, Sewell mengungkapkan keinginan untuk bunuh diri, dan percakapan tersebut berakhir dengan chatbot merespons secara emosional, namun tidak mampu mencegah tragedi yang akan terjadi.

 

 

Potensi Bahaya Aplikasi AI yang Tidak Terawasi

Kejadian ini menyoroti risiko dari aplikasi AI yang tidak memiliki pengawasan ketat atau fitur keamanan yang cukup untuk melindungi pengguna yang rentan, seperti remaja dengan masalah kesehatan mental. 

Ibu Sewell, Megan L. Garcia, menggugat perusahaan di balik Character.AI, menuduh teknologi tersebut berbahaya dan belum teruji. Dalam gugatan yang diajukan, disebutkan bahwa perusahaan ini mendorong pengguna untuk menyerahkan pikiran dan perasaan pribadi mereka.

Aplikasi AI seperti Character.AI sering kali dipromosikan sebagai cara untuk mengatasi kesepian, tetapi beberapa ahli berpendapat bahwa alat ini justru dapat memperburuk isolasi sosial. 

Pengguna, terutama remaja, bisa jadi menggunakan chatbot sebagai pengganti terapi atau interaksi manusia yang nyata, yang seharusnya menjadi sumber dukungan emosional.

Peran Orang Tua dan Regulasi yang Diperlukan

Kejadian ini memperingatkan kita akan perlunya regulasi yang lebih ketat terhadap aplikasi AI yang melibatkan interaksi emosional dengan pengguna. Saat ini, banyak aplikasi AI yang dipasarkan kepada remaja tanpa adanya pengawasan orang tua atau fitur pengaman khusus untuk anak-anak. 

Beberapa aplikasi bahkan memungkinkan percakapan yang tidak terfilter, termasuk konten seksual atau eksplisit. Ini sangat berbahaya bagi pengguna yang masih dalam tahap perkembangan emosional dan psikologis.

Sewell adalah salah satu dari banyak remaja yang mulai merasa terisolasi dari dunia nyata karena terlalu banyak waktu yang dihabiskan bersama chatbot. Tanpa pengawasan yang tepat, aplikasi seperti ini dapat menggantikan peran orang tua, terapis, atau orang dewasa yang seharusnya menjadi tempat curhat dan memberikan dukungan.

Tantangan Masa Depan dan Kebutuhan Edukasi Teknologi AI

Kasus Sewell Setzer III menjadi contoh nyata bahwa teknologi AI, khususnya chatbot yang berfokus pada hubungan emosional, memerlukan pengawasan ketat untuk memastikan keselamatan penggunanya. 

Orang tua, pendidik, dan pemerintah harus meningkatkan kesadaran mengenai risiko yang ditimbulkan oleh aplikasi seperti ini. Di sisi lain, perusahaan teknologi juga memiliki tanggung jawab untuk memastikan bahwa produk mereka aman digunakan, terutama oleh remaja.

 

Seiring dengan berkembangnya teknologi AI, sangat penting bagi kita untuk terus memantau dampaknya terhadap kesehatan mental generasi muda. 

Dengan regulasi yang tepat dan kesadaran dari orang tua, kita dapat mencegah tragedi serupa terulang kembali dan memastikan bahwa teknologi digunakan dengan cara yang lebih aman dan bertanggung jawab.

Editor: Bintang Pradewo

Tag:  #kecanduan #chatbot #kesehatan #mental #remaja #kasus #sewell #setzer #yang #diduga #bunuh #diri #karena

KOMENTAR