



Bisakah Mengandalkan ChatGPT Membaca Hasil Pemeriksaan Medis?
Situasi berikut ini kini sudah sangat umum: kamu sedang cemas menunggu hasil tes medis, lalu – ding! – hasilnya masuk ke email. Kamu akan segera membacanya bahkan sebelum dokter sempat memberi penjelasan.
Saat dibaca, kamu mungkin akan kebingungan dengan istilah-istilah medis di hasil tes itu. Apa itu tortuous colon? Apakah nodul satu sentimeter di kelenjar tiroid saya cukup besar untuk dikhawatirkan?
Kini, banyak orang menggunakan alat kecerdasan buatan (AI) seperti ChatGPT untuk mencoba memahami hasil tes mereka sambil menunggu kabar dari dokter.
Beberapa dokter menganggap ini sebagai versi lanjutan dari "bertanya ke Dr. Google", tetapi dalam versi yang jauh lebih kuat. Sama seperti pencarian di internet, jawaban dari mesin AI bisa sangat akurat, tidak terlalu membantu, menyesatkan, atau bahkan menakutkan.
Contoh kasus lain, seorang pengguna di forum Reddit, wanita berusia 32 tahun, berbagi pengalamannya saat menerima hasil MRI otak yang menunjukkan istilah "white matter hyperintensities." Karena belum bisa langsung bertemu dokternya, ia menyalin laporan medis ke ChatGPT dan meminta penjelasan.
ChatGPT menjelaskan bahwa istilah tersebut bisa berkaitan dengan berbagai hal, mulai dari migrain hingga kondisi neurologis yang lebih serius, tetapi juga umum ditemukan pada usia muda tanpa gejala lain.
Penjelasan itu membantunya merasa lebih tenang, dan ia datang ke janji konsultasi dokter dengan daftar pertanyaan yang lebih terarah.
"Pasien sering melakukan ini dan memberikan kesimpulan, dan terkadang kesimpulan tersebut sesuai dengan apa yang direkomendasikan ChatGPT," kata Karim Hanna, MD, direktur Program Residensi Kedokteran Keluarga di University of South Florida.
"Namun, ada kalanya kesimpulan tersebut perlu diarahkan ulang atau diklarifikasi agar pasien tidak salah memahami detailnya," lanjutnya.
Pencitraan medis dalam radiologi
Keuntungan memakai AI untuk menjelaskan
Memanfaatkan AI untuk mencari informasi seputar kesehatan bukan hal yang buruk. Apalagi sebagian besar hasil pemeriksaan laboratorium atau radiologi tidak mudah dipahami dan memakai istilah yang hanya dimengerti kalangan medis.
Menurut kepala departemen layanan medis, kebijakan, dan praktik dari Brown University School of Public Health, Dr.Ateev Mehrotra, AI bisa membantu pasien memahami laporan medis.
"ChatGPT sangat bagus dalam menerjemahkannya ke dalam istilah awam dan menjelaskannya kepada pasien," kata Hanna.
Misalnya, hasil pemeriksaan mengatakan kamu memiliki tortuous colon. Kedengarannya mengerikan, tetapi itu artinya usus besar kamu sulit untuk dilalui. AI dapat menjelaskan hal-hal seperti itu dengan lebih sederhana.
Bahasa sederhana
Ringkasan dalam bahasa sederhana membantu orang mencerna hasil. Satu studi menemukan bahwa pasien kanker yang menerima laporan pemindaian CT yang disederhanakan dengan model bahasa yang luas dan diperiksa oleh ahli radiologi lebih memahami kondisi mereka daripada orang yang hanya menerima laporan asli.
Studi lain menemukan bahwa pasien lebih memahami laporan patologi mereka saat mereka menerima ringkasan yang dibuat oleh AI.
Beberapa sistem kesehatan, seperti Stanford Medicine, kini juga menggunakan perangkat AI untuk membantu dokter menjelaskan hasil tes kepada pasien.
Mengurangi kepanikan
AI dapat meredakan kepanikan – dalam beberapa kasus. Kini, hasil tes langsung dikirim ke pasien, terkadang sebelum dokter memeriksanya. Kecemasan saat menerima hasil tes menjadi hal yang umum dan pasien pun dengan panik menghubungi dokter.
"Perangkat AI berpotensi mengurangi panggilan panik ke dokter dengan membantu pasien memahami temuan umum dan hasil tes yang normal atau berisiko rendah," katanya.
AI bisa salah, pentingnya kehati-hatian
AI memang bagus, tetapi tidak sempurna. ChatGPT memiliki tingkat akurasi 87 persen-94 persen saat menganalisis laporan radiologi, menurut penelitian Harvard. Menurut sebuah studi di JAMA Network Open, AI 97 persen akurat saat menginterpretasikan laporan patologi.
Menurut penelitian oleh Hanna dan tim, ChatGPT tidak memberikan konteks mengenai riwayat medis pasien. Ketika ChatGPT menginterpretasikan satu tes secara terpisah, gambaran besarnya mungkin tidak tersampaikan.
Hanna mencontohkan, misalnya, seseorang memiliki hemoglobin 11. Secara teori, hemoglobin 11 itu tidak normal, dan ChatGPT akan melaporkannya seperti itu, terkadang memberikan alasan yang mungkin menakutkan atau mengkhawatirkan bagi pasien.
"ChatGPT mungkin menyarankan untuk segera mengangkat kanker usus besar. Padahal, mereka mungkin telah memiliki hemoglobin 11 selama bertahun-tahun, dan temuan ini mungkin sebenarnya bukan hal baru atau mengkhawatirkan," katanya.
Ia menegaskan, pihak terbaik yang dapat memberi kita rekomendasi mengenai hasil adalah dokter yang memerintahkan pemeriksaan tersebut.
Terlepas dari apakah pasien menggunakan AI atau tidak, menurut Forman, seharusnya ahli radiologi dan spesialis pencitraan dapat membantu dengan menulis laporan dengan cara yang akurat secara ilmiah namun mudah dipahami.
"Semakin banyak istilah yang dapat kita gunakan dengan jelas, ringkas, dan menyampaikan informasi dengan cara yang bermanfaat bagi dokter dan pasien, hasilnya akan semakin baik," katanya.
Tag: #bisakah #mengandalkan #chatgpt #membaca #hasil #pemeriksaan #medis