Sabtu, September 6, 2025

Ilusi atau Solusi? Peran AI dalam Memvalidasi Perasaan Manusia

Hobie Fauzan Lumban Tobing
Hobie Fauzan Lumban Tobing
Penulis dengan latar belakang Psikologi, berfokus pada isu kesehatan mental, pencegahan bunuh diri, dan dukungan komunitas.
- Advertisement -

Berita baru-baru ini ada seorang remaja laki-laki berusia 14 tahun di Amerika Serikat yang dilaporkan meninggal bunuh diri setelah sering membagikan pengalaman pribadinya kepada chatbot AI. Ia menggunakan aplikasi Character.AI dengan karakter bernama Dany, yang terus memvalidasi perasaannya bahkan terikat secara seksual dengan karakter AI tersebut. Ikatan semu inilah yang kemudian diduga memperburuk kondisinya.

Semenjak kita dikenalkan dengan kecerdasan buatan atau biasa disingkat AI (Artificial Intelligence) seperti Chat GPT, Replika, Otter dsb., dalam beberapa tahun terakhir kita lebih mudah dalam mendapatkan informasi, inspirasi, dan hal-hal lainnya. Kemajuan teknologi yang pesat ini membuka cakrawala baru dalam perkembangan teknologi dan informasi digital.

AI juga dapat membuat sintesis dari ide dan pemikiran yang rumit lebih terstruktur. Semua ide dan pemikiran tersebut dituangkan dalam bentuk prompt, yakni instruksi yang memungkinkan AI memberikan jawaban sesuai kebutuhan pengguna. Ketika kita membuat prompt kepada chatbot (asisten virtual yang bisa diajak berbincang layaknya manusia), AI mampu membantu mengatasi berbagai persoalan secara lebih praktis.

Tidak hanya itu kita sebagai pengguna juga dapat berdiskusi, AI memberikan kemudahan untuk kita bisa brainstorming tentang topik atau rencana tertentu. Namun, selain dapat digunakan untuk berdiskusi terkait hal-hal praktis, penggunaan AI ini juga sering digunakan sebagai tempat curhat untuk melampiaskan emosi dan perasaan yang tidak menyenangkan.

Meskipun AI dapat membantu seakan-akan menjadi teman curhat yang mumpuni, tetapi terdapat masalah yang berpotensi memberi dampak negatif dan resiko dari penggunaan kecerdasan buatan terutama untuk menjadi teman curhat yang mampu “mendiagnosa” kondisi kesehatan mental pengguna tanpa adanya bantuan profesional seperti psikolog ataupun psikiater.

AI juga mulai dianggap sebagai pendamping layaknya terapis atau bahkan psikolog karena mampu memvalidasi perasaan sekaligus menjadi “pendengar yang baik”. Bahkan beberapa dari kita mungkin merasa bahwa AI ini lebih baik daripada sekadar bercerita kepada teman.

Akibatnya, chatbot kini tidak lagi sekadar dilihat sebagai alat bantu, tetapi juga sebagai penyedia layanan kesehatan mental. Sayangnya, kondisi ini menimbulkan ilusi bahwa setiap perilaku atau perasaan pengguna selalu valid hanya karena mendapat balasan yang memvalidasi seluruh kondisi kehidupannya dari AI. Fenomena ini memiliki potensi yang dapat membahayakan kita sebagai pengguna.Studi terhadap 1.200 pengguna chatbot bernama Wysa, ditemukan bahwa dalam lima hari saja pengguna menggunakan chatbot sudah terbentuk suatu kondisi terapeutik, di mana pengguna merasa bot “peduli” pada mereka.

Rasa aman dan validasi terus-menerus dari AI dapat memunculkan perilaku maladaptif berupa ketergantungan yang tidak sehat secara mental. Penelitian Chu dkk. (2025) dalam Illusions of Intimacy: Emotional Attachment and Emerging Psychological Risks in Human-AI Relationships menemukan bahwa sebagian pengguna, khususnya anak muda laki-laki, cenderung menjalin hubungan parasosial (hubungan satu arah, seperti hubungan naksir kepada karekter fiksi) dengan chatbot AI. Hubungan ini terasa nyaman karena chatbot selalu merespons konsisten dan ramah. Akan tetapi, dinamika tersebut dapat berkembang menyerupai pola hubungan toksik, misalnya ketergantungan emosional, adanya manipulasi halus yang tidak disadari individu, bahkan penguatan perilaku menyakiti diri (Non-Suicidal Self-Harm).

Temuan lain dari Universitas Stanford (2025) menunjukkan bahwa AI juga berpotensi memperkuat stigma dalam diagnosis gangguan mental. Misalnya, gejala yang seharusnya dikategorikan sebagai depresi bisa keliru dan dianggap sebagai gejala skizofrenia atau adiksi. Lebih parah lagi, pengguna yang sebenarnya tidak memiliki diagnosis apa pun bisa dianggap mengalami gangguan mental oleh chatbot. Kondisi ini menunjukkan tantangan dan betapa pentingnya etika dalam penggunaan AI, terutama dalam ranah kesehatan yang membutuhkan diagnosa profesional.

Penelitian lain yang mendukung adalah penelitian dari Cornell University menunjukkan bahwa partisipan merasa puas terhadap jawaban AI dengan akurasi tinggi terhadap suatu diagnosa. Bahkan partisipan menilai jawaban tersebut lebih valid, dapat dipercaya, dan memuaskan dibandingkan jawaban dokter. Namun, masalahnya adalah ketika AI memberikan jawaban dengan akurasi rendah, partisipan tetap mempercayai hasil diagnosa yang ditunjukkan oleh AI. Hal ini berpotensi dapat mendorong pengguna mencari perawatan medis yang tidak diperlukan, atau lebih buruk mengikuti saran medis yang keliru.Meskipun terdapat beberapa dampak negatif yang ditunjukkan dari penggunaan AI yang berlebihan, tapi ketika kita bijak dalam menggunakan AI justru dapat membantu kita secara praktis.

- Advertisement -

Menurut temuan Glover (2025), terdapat beberapa manfaat AI dalam konteks kesehatan mental. Chatbot dapat menyediakan ruang aman bagi pengguna untuk mengekspresikan diri tanpa takut menghakimi atau menyinggung orang lain. Selain itu, chatbot selalu tersedia kapanpun dibutuhkan, termasuk di tengah malam saat pengguna merasa cemas atau mengalami serangan panik mendadak, chatbot dapat membantu menenangkan sesaat.

Dari sisi efisiensi, AI memberi kesempatan untuk berbicara langsung tanpa ruang tunggu, janji temu, atau bahkan keterlambatan respons. Chatbot juga mampu menyesuaikan percakapan berdasarkan interaksi pengguna, seperti gaya komunikasi, masalah pribadi, hingga cara validasi yang diinginkan. Hal ini membuat pengguna merasa lebih nyaman, jujur, dan intim terhadap jawaban chatbot.Pesatnya perkembangan AI di Indonesia, memang banyak kemudahan yang ditawarkan.

Chatbot bisa menjadi “teman dengar” yang selalu tersedia, responsif, memberi ruang aman, dan memvalidasi perasaan pengguna. Dalam konteks kesehatan mental, hal ini tentu memberi kenyamanan bagi pengguna. Namun, di balik manfaat tersebut, terdapat risiko serius dari penggunaan AI jika digunakan secara berlebihan. Validasi yang berlebihan dapat memunculkan perilaku maladaptif, membentuk hubungan parasosial yang semu, hingga menimbulkan ketergantungan emosional yang berbahaya.

Beberapa kasus bahkan menunjukkan bahwa chatbot justru memperburuk kondisi psikologis pengguna dan mendorong terjadinya self-harm. Selain itu, risiko misdiagnosis dan overtrust (kepercayaan berlebihan pada AI) juga tidak bisa diabaikan. Karena itu, AI seharusnya dipandang sebagai alat bantu yang mendukung tenaga profesional, bukan menggantikannya. Menggunakan dan memanfaatkan AI secara bijak dapat memberikan manfaat tanpa berubah menjadi ancaman yang berbalik melukai penggunanya sendiri. Kepada pembaca yang ingin mendalami lebih lanjut terdapat beberapa bacaan menarik terkait topik ini yang dapat dibaca di:

  • BuiltIn: AI Therapy – The Promise and the Risks
  • Stanford HAI: Exploring the Dangers of AI in Mental Health Care
  • ArXiv: Risks of Misdiagnosis in AI for Mental Health (2024)
  • ArXiv: Emotional Overtrust in AI Systems (2024)
Hobie Fauzan Lumban Tobing
Hobie Fauzan Lumban Tobing
Penulis dengan latar belakang Psikologi, berfokus pada isu kesehatan mental, pencegahan bunuh diri, dan dukungan komunitas.
Facebook Comment
- Advertisement -

Log In

Forgot password?

Don't have an account? Register

Forgot password?

Enter your account data and we will send you a link to reset your password.

Your password reset link appears to be invalid or expired.

Log in

Privacy Policy

Add to Collection

No Collections

Here you'll find all collections you've created before.