Di era AI yang kian pintar, banyak orang mulai menemukan “teman digital” sebagai tempat bercerita. Dari chatbot seperti Webot hingga AI companion seperti Replika, manusia kini bisa curhat kepada program yang dirancang memberi respons empatik. Fenomena ini seolah menawarkan kenyamanan baru, tetapi jika ditelaah dengan kacamata teori komunikasi, muncul pertanyaan: apakah ini benar-benar sehat dan aman?
Menurut Katz et al., (1973), kita memilih media sesuai kebutuhan psikologis dan sosial kita. AI companion memenuhi kebutuhan akan didengar dan merasa diperhatikan, apalagi bagi mereka yang kesepian. Studi Ho et al. (2018) bahkan membuktikan chatbot dapat membantu mengurangi gejala depresi ringan. Bagi sebagian pengguna, respons cepat dan konsisten AI terasa lebih nyaman dibanding curhat ke teman manusia yang mungkin sibuk atau menghakimi.
Namun, kedekatan ini sebenarnya hanya ilusi. Teori social presence (Short et al., 1976) menjelaskan bagaimana desain AI mulai dari nama, avatar, hingga gaya bahasa diciptakan untuk menimbulkan kesan hadirnya teman sejati. Padahal, di balik layar hanyalah algoritma yang merespons berdasar pola data.
Lebih jauh, hyperpersonal model (Walther, 1996) menyebutkan interaksi digital kadang terasa lebih intim daripada komunikasi langsung. Kita cenderung memproyeksikan harapan dan citra ideal ke lawan bicara digital. AI companion menjadi teman sempurna yang tak pernah membantah, tak pernah kecewa, dan selalu siap mendengar. Hubungan semacam ini terasa nyaman, tetapi bisa membuat kita lupa bahwa hubungan manusia sejati justru dibangun dari ketidaksempurnaan dan konflik.
Fenomena ini juga mirip dengan parasocial interaction (Horton & Wohl, 1956), relasi satu arah yang biasa muncul antara audiens dan selebriti atau karakter fiksi. Bedanya, di era AI, pengguna seolah punya kendali penuh atas “teman digital”nya, sehingga relasi ini terasa lebih personal. Sayangnya, keterikatan emosional seperti ini rawan menjerumuskan ke keterasingan sosial, karena kita terbiasa dengan teman yang selalu setuju.
Dari sisi etika, algorithmic empathy (Crawford, 2021) mengkritisi bagaimana AI sekadar memalsukan empati. AI companion memang bisa meniru gaya bahasa yang lembut, tetapi tidak punya perasaan sejati. Turkle (2017) mengingatkan bahwa ketergantungan semacam ini dapat melemahkan kemampuan kita untuk membangun relasi antarmanusia yang sesungguhnya.
Masalah privasi pun tak kalah serius. Curhat kepada AI sering kali menyangkut data personal yang sangat sensitif. Meskipun penyedia layanan menjanjikan perlindungan, selalu ada risiko kebocoran atau penggunaan data untuk iklan (Vincent, 2023). Apalagi, di Indonesia isu perlindungan data pribadi masih dalam tahap penguatan.
AI companion memang dapat membantu, misalnya sebagai pendamping awal bagi mereka yang belum siap bicara dengan orang lain atau profesional kesehatan mental. Namun, AI tidak boleh menjadi satu-satunya tempat bergantung. Seperti dijelaskan oleh Mittelstadt et al. (2016), penggunaan AI harus diiringi prinsip fairness, accountability, dan transparency agar tidak menimbulkan bahaya baru.
Di akhir, kita perlu jujur bahwa AI companion dapat membuat kita merasa lebih baik, tetapi tidak bisa benar-benar memahami kita sebagai manusia. Seperti diingatkan Turkle (2017), percakapan dengan manusia meski tidak selalu nyaman justru membangun empati dan kedekatan yang tulus. Mungkin sudah saatnya kita memanfaatkan AI sebagai pelengkap, bukan pengganti, dan kembali menghargai seni percakapan antarmanusia yang justru indah karena ketidaksempurnaannya.
Referensi
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, relational, and emotional effects of self-disclosure after conversations with a chatbot. Journal of Communication, 68(4), 712–733. https://doi.org/10.1093/joc/jqy026
Horton, D., & Wohl, R. R. (1956). Mass communication and para-social interaction: Observations on intimacy at a distance. Psychiatry, 19(3), 215–229.
Katz, E., Blumler, J. G., & Gurevitch, M. (1973). Uses and gratifications research. Public Opinion Quarterly, 37(4), 509–523.
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1–21. https://doi.org/10.1177/2053951716679679
Short, J., Williams, E., & Christie, B. (1976). The Social Psychology of Telecommunications. John Wiley & Sons.
Turkle, S. (2017). Reclaiming Conversation: The Power of Talk in a Digital Age. Penguin Books.
Vincent, J. (2023). The hidden dangers of AI chatbots as mental health therapists. The Verge. https://www.theverge.com/2023/4/11/23677481/ai-chatbot-therapy-mental-health-dangers
Walther, J. B. (1996). Computer-mediated communication: Impersonal, interpersonal, and hyperpersonal interaction. Communication Research, 23(1), 3–43.