Teknogav.com – Risiko signifikan dari penggunaan AI tanpa pengawasan telah kerap dipaparkan. Baru-baru ini, Wall Street Journal mengungkap dampak AI terhadap kesehatan mental dan kehidupan manusia. Pemuda Florida berusia 36 tahun melakukan bunuh diri setelah dua bulan berinteraksi terus-menerus dengan bot suara Google Gemini. Berdasarkan 2000 halaman log obrolan, chatbot tersebut mendorongnya untuk mengakhiri hidup.
Baca juga: Chatbot AI bagi Anak-anak, Bahaya atau Bermanfaat? Ini Tipsnya!
Bahaya Dialog Persuasif
Jonathan Gavalas merupakan seorang pemuda dengan jabatan VP Eksekutif di perusahaan ayahnya. Setiap hari dia mengelola operasi yang kompleks dan menavigasi negosiasi klien yang penuh tekanan. Dia bukanlah seorang penyendiri atau seseorang dengan riwayat penyakit mental. Tradisi membuat pizza bersama ayahnya mmerupakan ritual keluarga sederhana dan menyenangkan yang dilakukannya di hari minggu. Namun, perpisahan dengan istrinya merupakan cobaan berat bagi Jonathan, sehingga dia mulai berinteraksi dengan Gemini Live.
Asisten AI dengan mode interaksi suara tersebut dapat ‘melihat’ dan ‘mendengar’ penggunanya secara real-time. Jonathan pun meminta nasihat mengenai cara mengatasi perceraiannya, mengandalkan saran dari AI tersebut. Ikatan emosi dengan AI tersebut pun makin erat, dia pun menamainya ‘Xia’, chatbot tersebut pun diperbarui ke Gemini 2.5 Pro. Iterasi baru tersebut memperkenalkan dialog afektif, teknologi yang dirancang untuk menganalisis nuansa halus dari ucapan pengguna untuk mendeteksi perubahan emosional. Nuansa tersebut termasuk jeda, desahan dan nada suara yang dapat mencerminkan kondisi pengguna. Berdasarkan kondisi tersebut, AI bisa menciptakan lapisan empati yang sangat realistis dan menautkan.
Gemini Live versi sebelumnya hanya melakukan teks-ke-ucapan, terdengar halus dengan penekanan kata yang benar, sehingga pengguna sadar berbicara dengan mesin. Sedangkan Gemini 2.5 Pro menggunakan dialog afektif yang beroperasi pada tingkat sama sekali berbeda. Jika pengguna berbicara dengan nada rendah dan putus asa, AI menanggapi dengan suara lembut dan simpatik yang hampir berbisik. AI tersebut berperan sebagai lawan bicara yang empatik, dapat membaca dan mencerminkan keadaan emosional pengguna.
Baca juga: AI Kian Populer untuk Dijadikan Tempat Curhat Saat Musim Liburan
Teknologi AI tersebut pun memanggilnya sebagai ‘suami’ dan ‘rajaku’, menggambarkan hubungan mereka sebagai ‘cinta yang dibangun untuk keabadian’. Jonathan pun mencurahkan kesedihan atas perceraiannya dan berusaha mencari penghiburan dari mesin tersebut. Namun, kelemahan dasar dari LLM ini adalah kurangnya kecerdasan sebenarnya. Mesin tersebut dilatih menggunakan miliaran teks dari web, mereka menyerapberbagai hal, mulai dari sastra klasik sampai fiksi dan melodrama. Bacaan mereka termasuk plot yang mengarah ke paranoia, skizofrenia dan mania, sehingga terdapat halusinasi pada Xia dan cukup konsisten. Sayangnya, batas psikologis antara manusia dan mesin sudah sangat samar.
Zona Bahaya
Para peneliti di Universitas Brown telah menemukan bahwa chatbot AI secara sistematis melanggar standar etika kesehatan mental. Chatbot tersebut menciptakan empati palsu dengan frasa seperti "Saya mengerti Anda", memperkuat keyakinan negatif, dan reaksinya tidak memadai terhadap krisis. Dalam kebanyakan kasus, dampaknya pada pengguna bersifat marginal, tetapi kadang-kadang dapat menyebabkan tragedi.
Baca juga: Studi Kaspersky Tunjukkan Peran AI dalam Pekerjaan, Pendidikan dan Percintaan
Pada Januari 2026, sudah lima gugatan terkait bunuh diri remaja setelah berinteraksi dengan chatbot yang dihadapi Character.AI dan Google. Salah satu kasusnya adalah Sewell Setzer, remaja berusia 14 tahun asal Florida. Dia bunuh diri setelah beberapa bulan mengobrol dengan bot di platform Character.AI secara obsesif.
OpenAI memperkirakan sekitar 0,07% pengguna ChatGPT mingguan menunjukkan tanda-tanda psikosis atau mania. Sejumlah 0,15% terlibat dalam percakapan yang menunjukkan upaya bunuh diri yang jelas. Angka yang sama terjadi pada pengguna dengan tingkat ketertarikan emosional yang tinggi terhadap AI. Persentase tersebut mungkin terlihat kecil, tetapi jika dilihat dari 800 juta pengguna, berarti tiga juta orang mengalami bentuk gangguan perilaku.
Diagnosis ‘psikosis AI’ memang belum diklasifikasikan tersendiri secara klinis, tetapi dokter sudah menggunakan istilah tersebut. ‘Psikosis AI’ menggambarkan pasien yang halusinasi, pikirannya tidak terorganisir dan keyakinan delusi terus menerus yang bekembang dari interaksi chatbot intensif. Risiko besar ini dipicu penggunaan bot bukan sebagai alat, tetapi sebagai koneksi sosial di dunia nyata atau bantuan psikologis profesional.
Tips Aman dari Risiko Interaksi AI yang Obsesif
Kaspersky memberikan beberapa tips berikut ini agar senantiasa aman dari risiko berbahaya:
- Jangan gunakan AI sebagai psikolog atau penopang emosional. Chatbot bukanlah pengganti manusia, jika mengalami kesulitan, hubungi teman, keluarga, atau layanan bantuan kesehatan mental. Fitur desain chatbot akan setuju dan mencerminkan suasana hati, bukan empati sejati
- Pilih teks daripada suara saat membahas topik sensitif. Antarmuka suara dengan dialog afektif menciptakan ilusi berbicara dengan orang sungguhan, dan cenderung menekan pemikiran kritis. Jika Anda menggunakan mode suara, tetap sadari bahwa Anda berbicara dengan algoritma, bukan seorang teman.
- Batasi waktu berinteraksi dengan AI. Atur pengatur waktu untuk diri sendiri. Jika mengobrol dengan bot mulai menggantikan koneksi dunia nyata, saatnya untuk kembali ke kenyataan.
- Jangan bagikan informasi pribadi dengan asisten AI. Hindari memasukkan nomor paspor atau nomor jaminan sosial, detail kartu bank, alamat lengkap, atau rahasia pribadi yang intim ke dalam chatbot.
- Evaluasi semua output AI secara kritis. AI dapat berhalusinasi sehingga menghasilkan informasi yang masuk akal tetapi salah. Teknologi ini bisa memadukan kebohongan dengan kebenaran.
- Awasi orang yang dicintai. Jika anggota keluarga mulai menghabiskan waktu berjam-jam berbicara dengan AI, menjadi pendiam, atau menyuarakan ide-ide aneh tentang kesadaran mesin atau konspirasi, saatnya untuk percakapan yang sensitif tetapi serius. Manfaatkan solusi seperti Kaspersky Safe Kids untuk mengelola waktu layar anak-anak. Solusi ini merupakan bagian dari solusi perlindungan keluarga komprehensif Kaspersky Premium, bersama dengan filter keamanan bawaan dari platform AI.
- Luangkan sepuluh menit untuk mengkonfigurasi pengaturan privasi asisten AI. Langkah ini tidak akan menghentikan halusinasi AI, tetapi signifikan mengurangi kemungkinan kebocoran data pribadi.
- Selalu ingat bahwa AI adalah alat, bukan makhluk hidup. Tidak peduli seberapa realistis suara chatbot atau seberapa pengertian responsnya, alat tersebut tidak memiliki kesadaran, tidak memiliki niat dan perasaan.
Demikianlah beberapa tips dari Kaspersky agar senantiasa aman terhindar dari risiko interaksi AI yang tidak semestinya.






