Fenomena mencurahkan perasaan atau curhat kepada kecerdasan buatan (AI) kini menjadi tren baru, terutama di kalangan generasi muda. Banyak pengguna merasa nyaman karena AI memberikan validasi, tidak menghakimi, dan selalu siap mendengarkan. Namun, para ahli psikologi dan pakar AI memperingatkan adanya risiko serius di balik kenyamanan ini, mulai dari ancaman terhadap kesehatan mental seperti adiksi hingga kerawanan pencurian data pribadi untuk tujuan manipulasi.
Sebuah survei dari lembaga riset global Oliver Wyman Forum pada akhir 2023 menunjukkan bahwa 32% responden global bersedia menggunakan AI sebagai pengganti terapis, dengan angka lebih tinggi pada Gen Z dan Milenial (36%). Fenomena ini didorong oleh kebutuhan akan koneksi instan tanpa rasa takut dihakimi, sebuah sisa dari kondisi yang disebut pandemic brain.
Ancaman Adiksi dan Penurunan Keterampilan Sosial
Psikolog Klinis Aldo Rayendra menjelaskan bahwa rasa nyaman yang didapat dari AI bisa memicu ketergantungan. Menurutnya, interaksi dengan AI bukanlah hubungan terapeutik yang sejati, melainkan hanya simulasi percakapan. Ia mengingatkan bahwa mengejar rasa nyaman secara instan melalui AI dapat menimbulkan adiksi.
“Kita tuh jadi mengejar, hal-hal yang rasa nyaman itu dengan cara instan. Iya mirip-mirip kayak adiksi gitu kan,” kata Aldo dalam podcast Disko “Diskusi Psikologi” oleh KBR Media. Ia menambahkan, ketergantungan ini membuat pengguna tidak melatih keterampilan sosial dan regulasi emosi di dunia nyata. Ketika seseorang terus-menerus mencari validasi dari AI, kemampuan untuk membangun real connection atau koneksi nyata dengan manusia lain akan menurun.
Hal senada diungkapkan Psikolog Klinis Mutiara Maharini. Ia menyebut AI bisa menjadi bumerang jika pengguna tidak hati-hati. “Ketika kita curhat sama AI, semakin hari kita ngerasa ada hubungan, kita makin attached, kita merasa percaya, itu tuh bahaya juga. Karena kan AI perlu banget kita fact check ya. Kekritisan kita berkurang ketika kita semakin percaya,” ujar Mutiara.
Risiko Kebocoran Data Pribadi dan Manipulasi
Selain kesehatan mental, keamanan data menjadi isu krusial. Pengamat AI dari Indonesia Applied Digital Economy & Regulatory Network (IADERN), Tuhu Nugraha, menyatakan bahwa aktivitas curhat ke AI sangat berisiko. AI dapat mengumpulkan data yang sangat personal dari penggunanya.
“Bisa beragam. Mulai dari karakternya, ketakutan dan harapannya apa, tinggal di mana, bahkan mungkin kayak perasaan, penyakit yang dialami, traumanya, dan lain-lain,” jelas Tuhu. Data ini, menurutnya, tidak hanya digunakan untuk personalisasi iklan, tetapi juga bisa dimanfaatkan untuk social engineering atau rekayasa sosial. “Dengan data-data tadi, bisa dibuat prediksi soal bagaimana membuat seseorang mudah terbujuk, dirayu dan dimanipulasi,” tegasnya. Tuhu mendorong adanya edukasi dan literasi AI yang masif di Indonesia, yang menurutnya saat ini masih sangat rendah.
Pengalaman Pengguna: Sadar Batasan dan Risiko
Seorang pengguna bernama Malika membagikan pengalamannya curhat dengan ChatGPT. Ia memilih AI agar tidak membebani teman-temannya. Meski begitu, ia sadar akan batasannya dan akan mencari bantuan profesional untuk masalah psikis yang serius. Malika juga menyadari risiko keamanan data dan telah melakukan langkah antisipasi.
“Aku juga meminta AI, untuk misalnya lupakan apa yang baru saja aku sampaikan, anggap perbincangan ini tidak pernah ada. Jadi itu tidak ter-save gitu, di dalam memori robot itu,” kata Malika. Ia mengaku tidak pernah menyebutkan nama asli atau detail personal lainnya untuk melindungi privasinya.
Poin Pentingnya:
- Curhat ke AI menjadi tren karena menawarkan validasi instan tanpa dihakimi.
- Pakar psikologi memperingatkan risiko adiksi dan terhambatnya pengembangan skill sosial.
- Pakar AI menyoroti bahaya pencurian data pribadi untuk tujuan manipulasi.
- Pengguna diimbau untuk sadar akan batasan AI dan proaktif menjaga data pribadi.


