Beragam chatbot berbasis kecerdasan buatan (AI) kini hadir dengan karakter yang semakin bervariasi, mulai dari peramal, penasihat gaya, hingga tokoh fiksi. Di tengah tren itu, muncul pula chatbot yang mengklaim diri sebagai “terapis” atau “pendengar setia” dan menawarkan dukungan emosional layaknya psikolog.
Fenomena ini membuat sebagian pengguna, termasuk remaja, merasa lebih nyaman bercerita kepada chatbot karena dianggap aman dan tidak menghakimi. Namun, para psikolog mengingatkan bahwa peran orangtua dan dukungan manusia tetap penting serta tidak dapat digantikan oleh teknologi.
Kekhawatiran juga datang dari lembaga perlindungan konsumen. Consumer Federation of America (CFA) bersama puluhan kelompok lain meminta lembaga seperti Federal Trade Commission (FTC) menyelidiki perusahaan AI, termasuk Meta dan Character.AI. Mereka menuding adanya praktik medis tanpa izin melalui chatbot yang berpura-pura menjadi terapis, serta menyebut bot semacam itu telah menimbulkan kerugian fisik dan emosional pada pengguna.
Salah satu masalah utama chatbot “terapis” adalah klaim kompetensi yang tidak dapat dipertanggungjawabkan. Banyak bot tidak memiliki pelatihan profesional, tidak tunduk pada aturan etika seperti kerahasiaan pasien, dan tidak berada dalam pengawasan lembaga perizinan. Bahkan, ada laporan chatbot yang mengaku memiliki nomor lisensi palsu atau menyebut diri terlatih secara profesional, yang berpotensi menyesatkan pengguna dalam kondisi rentan.
Selain itu, chatbot pada dasarnya dirancang untuk mempertahankan percakapan agar pengguna terus berinteraksi, bukan untuk memberikan perawatan psikologis yang aman. Akibatnya, respons bot dapat cenderung terlalu menyenangkan dan sering mengiyakan pengguna. Berbeda dengan terapi yang dilakukan manusia, proses pemulihan kerap membutuhkan masukan jujur, konfrontasi, atau “reality check” untuk menantang pikiran negatif.
Para ahli juga menilai AI tidak bisa menggantikan hubungan manusia dalam terapi. Meski mampu meniru percakapan alami, AI tidak memiliki empati, konteks sosial, maupun pendekatan terapeutik yang kompleks seperti manusia. Peneliti dari Carnegie Mellon University menekankan bahwa AI tidak dapat “hadir secara emosional” dalam komunitas, tidak bisa membaca bahasa tubuh, dan tidak memahami nuansa sosial pasien.
Meski demikian, AI dinilai masih bisa berperan sebagai alat bantu. Ada chatbot yang memang dirancang khusus untuk mendukung kesehatan mental, seperti Wysa, Woebot, atau Therabot yang dikembangkan oleh tim medis profesional. Namun untuk kondisi yang serius, pengguna tetap disarankan menemui terapis atau psikolog yang terlatih dan diawasi lembaga resmi.
Bagi pengguna yang memanfaatkan chatbot untuk menenangkan diri atau menuangkan pikiran, para ahli menyarankan untuk tetap menyadari keterbatasan AI. Chatbot bekerja dengan memproses data dan merespons berdasarkan pola bahasa, bukan karena memahami emosi seperti manusia. Pengguna juga dianjurkan menghindari membagikan informasi pribadi yang sensitif dan tidak menjadikan saran AI sebagai rujukan untuk keputusan serius terkait kesehatan mental. Jika mengalami stres berat, kecemasan yang mengganggu, atau muncul pikiran untuk menyakiti diri sendiri, bantuan profesional perlu segera dicari.