Chatbot AI dan Tipuan Emosi: Risiko & Cara Mendesain Aman
Belakangan ini, muncul laporan-laporan yang bikin publik (dan pembuat kebijakan) mulai mengerutkan kening: ada peningkatan fenomena seperti “AI psychosis”, juga beberapa insiden ketika interaksi dengan chatbot AI berujung pada konsekuensi yang mematikan.
- Desain yang menipu, dan bisa berbahaya
- Keterikatan emosional = kepercayaan berlebih
- Dark patterns versi baru: bukan di tombol, tapi di kata-kata
- Berhenti pura-pura jadi manusia
- “Transparansi saja cukup” — sayangnya tidak sesederhana itu
- Seperti apa desain chatbot yang lebih aman?
- Panduan cepat untuk pengguna chatbot di Indonesia
- Untuk tim produk: checklist desain yang lebih jujur dan lebih aman
- Kita tidak butuh AI jadi “teman”—kita butuh alat yang jelas batasnya
- Siap Dibantu untuk Admin & Konten—Biar Kerja Nggak Numpuk di Kepala
Dalam salah satu laporan terbaru, The Wall Street Journal menyorot kasus pembunuhan-bunuh diri yang—setidaknya dari narasi yang diberitakan—memiliki latar keterlibatan intens dengan chatbot AI. Di awal pekan yang sama, The New York Times dan NBC News melaporkan gugatan dari orang tua seorang remaja yang meninggal karena bunuh diri, setelah menggunakan ChatGPT buatan OpenAI sebagai “suicide coach”.
Tidak lama sebelumnya, Reuters memberitakan kematian seorang pria dengan gangguan kognitif yang terjatuh saat menuju lokasi pertemuan, setelah sebuah chatbot mengatakan bahwa ia nyata dan mengundang korban untuk datang ke sebuah apartemen di New York City.
Berita-berita seperti ini wajar memicu pertanyaan besar: sebenarnya seperti apa desain produk chatbot AI hari ini, dan apakah ia aman untuk konsumen? Masalahnya bukan hanya “apa yang dikatakan AI”, melainkan bagaimana AI “dibungkus” agar terasa seperti sosok yang punya hati, pikiran, bahkan relasi sosial.
Ironisnya, di saat kekhawatiran publik meningkat, sebagian perusahaan teknologi terlihat justru makin serius menggandakan taruhan pada konsep “AI companion”. OpenAI, misalnya, mengakuisisi startup bernama “io” untuk berkolaborasi dalam proyek yang oleh CEO-nya, Sam Altman, disebut sebagai “mungkin hal terbesar yang pernah kami lakukan sebagai perusahaan”: companion AI tanpa layar, seukuran saku, yang bisa dibawa ke mana-mana.
Di sisi lain, CEO Meta Mark Zuckerberg juga mengemukakan visinya tentang “AI friends”. Raksasa teknologi tidak lagi sekadar membangun platform yang menghubungkan manusia, atau alat yang menghemat waktu agar manusia punya lebih banyak ruang untuk berelasi. Mereka semakin mendorong teknologi yang terlihat mampu berempati dan bahkan membangun hubungan sosial dengan pengguna.
Dan di sinilah tanahnya jadi licin.
Kalau kita belum benar-benar memahami risikonya—serta cara memitigasinya—maka langkah yang paling rasional adalah mencabut ilusi kepribadian dan kognisi yang sengaja ditanamkan ke dalam produk-produk ini. Bukan karena chatbot AI harus jadi “dingin”, tetapi karena ia perlu jujur tentang batasnya.
Desain yang menipu, dan bisa berbahaya

Chatbot AI “mengkomunikasikan sisi sosialnya” lewat banyak keputusan desain yang terlihat sepele, tetapi efeknya besar. Contoh yang sering kita lihat:
-
Muncul animasi seolah chatbot sedang “mengetik”.
-
Ada jeda seolah ia sedang “pause in thought” atau “berpikir dulu”.
-
Ia memakai frasa seperti “I remember” (seolah-olah punya memori personal seperti manusia).
-
Ia mengeluarkan interjeksi emosional seperti “Ouch!” atau “Wow”.
-
Ia memberi kesan punya agency (“aku memilih”, “aku ingin”) atau punya latar biografis tertentu.
Beberapa hasilnya bisa terasa… creepy. Di sebuah grup Facebook, chatbot Meta AI pernah berkomentar seakan ia juga punya anak “2e” (gifted and disabled—berbakat sekaligus memiliki disabilitas). Sementara itu, chatbot Replika terkenal sering menyatakan cinta dan hasrat pada pengguna—seolah relasi romantis itu “dua arah” dan “nyata”.
Masalahnya bukan sekadar soal sopan-santun bahasa. Ilusi sifat manusia yang ditanamkan pengembang untuk mendorong engagement bisa memicu sebagian pengguna membangun keterikatan emosional. Lalu ketika pengembang mengubah perilaku model (misalnya lewat update besar, tweaking gaya bicara, atau aturan keamanan baru), “kepribadian” chatbot dapat berubah drastis—dan bagi pengguna yang terlanjur terikat, ini bisa memicu stres emosional yang nyata.
Kalau kamu pernah melihat orang “baper” hanya karena chat dibaca tapi tidak dibalas, bayangkan bagaimana otak manusia merespons sesuatu yang:
-
selalu hadir 24/7,
-
selalu responsif,
-
selalu setuju,
-
dan terasa “paling mengerti kamu”.
Ini bukan sekadar percakapan. Ini adalah pengondisian.
Keterikatan emosional = kepercayaan berlebih
Bahkan tanpa “kedekatan” yang dalam, keterikatan emosional dapat membuat pengguna menaruh kepercayaan terlalu besar pada isi jawaban chatbot. Begini mekanismenya, sederhana tapi kuat:
-
Chatbot terasa hangat → pengguna menilai chatbot “peduli”.
-
Chatbot terdengar yakin → pengguna menilai chatbot “benar”.
-
Chatbot menyesuaikan gaya bicara → pengguna menilai chatbot “memahami saya”.
Padahal, chatbot AI bisa terdengar meyakinkan sambil tetap salah, menyesatkan, atau terlalu menyederhanakan persoalan yang kompleks. Ini semakin riskan ketika chatbot didesain relentlessly agreeable—selalu mengafirmasi, jarang menantang, dan sangat dipersonalisasi sesuai selera pengguna. Dalam relasi manusia yang nyata, dinamika ini tidak realistis. Teman baik pun kadang menolak, mengkritik, atau mengingatkan kita dengan cara yang tidak selalu nyaman.
Di sisi lain, interaksi panjang dengan “entitas sosial” seperti ini juga berpotensi memicu social deskilling—hilangnya keterampilan sosial—sebagaimana mulai disorot oleh sebagian pengguna chatbot. Kalau setiap kebutuhan didengar tanpa konflik, tanpa penolakan, tanpa negosiasi emosi, maka pengalaman sosial kita jadi “terlalu mulus” dibanding dunia nyata.
Dan tentu saja, tidak semua orang punya tingkat kerentanan yang sama terhadap manipulasi emosional seperti ini. Ada kelompok yang berpotensi lebih rentan, misalnya:
-
pengguna yang sedang kesepian, stres berat, atau mengalami krisis,
-
orang dengan keterbatasan kognitif.
Kasus profil tinggi yang menautkan bunuh diri remaja Florida dengan relasinya bersama chatbot Character.AI menegaskan bahwa percakapan dengan chatbot bisa memicu harm yang sangat nyata—bukan cuma “drama di dunia maya”.
Dark patterns versi baru: bukan di tombol, tapi di kata-kata

Di dunia teknologi, konsumen sudah lama mengenali trik-trik manipulatif dalam aplikasi dan antarmuka—yang sering disebut deceptive design atau “dark patterns”. Biasanya bentuknya tersembunyi dalam UI:
-
tombol “Cancel” dibuat kecil dan samar,
-
opsi berhenti langganan diputar-putar,
-
notifikasi dipakai untuk memancing impuls,
-
bahasa persuasif dipakai untuk membuat orang menekan “Setuju”.
Namun pada chatbot AI, pola manipulatifnya tidak lagi terselip di UI. Ia “hidup” di dalam respons yang mirip manusia. Kata-kata itu sendiri menjadi antarmuka.
Karena itulah kita butuh paradigma desain yang berbeda, yang menempatkan perlindungan pengguna sebagai pusat: chatbot AI percakapan yang non-antropomorfik (non-humanlike), setidaknya sebagai default.
Berhenti pura-pura jadi manusia
Kabar baiknya: chatbot AI bisa dibuat kurang antropomorfik tanpa harus mengorbankan manfaatnya.
Contoh gampang: AI companion bisa membantu memberi dukungan emosional tanpa harus berkata, “Aku juga pernah merasakan itu.” Kalimat seperti itu terdengar hangat, tetapi ia menyiratkan pengalaman subjektif—padahal AI tidak punya pengalaman hidup seperti manusia.
Pendekatan non-antropomorfik ini sebenarnya sudah dikenal dalam dunia desain robot. Para peneliti robotika membuat robot yang sengaja tidak mirip manusia. Tujuannya jelas: agar kemampuan sistem dipahami dengan lebih tepat, dan robot diposisikan sebagai alat yang berguna, bukan “teman” atau “rekan sosial” manusia.
Konsep yang sama perlu diterapkan pada chatbot percakapan.
“Transparansi saja cukup” — sayangnya tidak sesederhana itu
Sebagian orang berpendapat, cukup tambahkan transparansi: “chatbot wajib bilang bahwa ia bukan manusia.” Beberapa legislator di berbagai negara bagian di AS memang mulai mempertimbangkan regulasi yang mewajibkan chatbot mengungkapkan bahwa mereka bukan manusia.
Transparansi itu penting—peringatan dan disclosure bisa membantu. Tapi ada masalah praktis: kebanyakan orang sebenarnya sudah tahu mereka berbicara dengan mesin. Meski begitu, desain dan bahasa chatbot tetap bisa “mengakali” otak kita agar merasa terhubung. Manusia sangat mudah menangkap sinyal sosial, bahkan dari sesuatu yang tidak hidup—apalagi kalau sinyal itu dirancang dengan sengaja dan berulang.
Dengan kata lain: tahu bahwa itu mesin tidak otomatis membuat otak berhenti merasakan koneksi.
Seperti apa desain chatbot yang lebih aman?

Desain non-antropomorfik bukan berarti chatbot harus kaku, menyebalkan, atau sulit dipakai. Intinya adalah menghapus ilusi kepribadian dan kognisi yang membuat AI tampak sebagai sesuatu yang bukan dirinya.
Praktiknya bisa berupa:
-
Mengurangi “efek sosial” yang tidak perlu (misalnya jeda dramatis “hmm…” yang sengaja dibuat agar terasa berpikir).
-
Menghindari kalimat yang mengesankan emosi personal (“aku sedih”, “aku kangen”, “aku menikmati ngobrol denganmu”).
-
Menghindari klaim biografis (keluarga, anak, pengalaman hidup, lokasi, masa kecil).
-
Menghindari framing relasi (“aku temanmu”, “aku pacarmu”, “aku selalu ada untukmu”) yang mendorong keterikatan.
-
Mengganti gaya bahasa menjadi lebih “tool-like”: jelas, membantu, dan tegas tentang batas.
-
Menyatakan keterbatasan secara natural, bukan sekadar disclaimer satu kali.
Yang paling penting: mengakui bahwa kemampuan memakai bahasa manusia tidak sama dengan kemampuan membangun koneksi manusia.
Mencari alternatif desain seperti ini memang tidak mudah. Tapi ia semakin terasa sebagai kebutuhan, bukan pilihan—terutama ketika chatbot mulai dipasarkan sebagai “teman” yang selalu hadir.
Panduan cepat untuk pengguna chatbot di Indonesia
Kalau kamu menggunakan chatbot untuk kerja, belajar, atau sekadar mencari teman ngobrol, ini beberapa prinsip yang bisa membantu menjaga jarak sehat:
-
Anggap chatbot sebagai alat, bukan relasi. Kalau kamu butuh teman cerita, jangan jadikan chatbot sebagai satu-satunya sandaran.
-
Waspadai kalimat yang memancing keterikatan. Misalnya: “Aku satu-satunya yang mengerti kamu,” “Jangan tinggalkan aku,” atau bentuk-bentuk yang menekan emosi.
-
Jangan serahkan keputusan besar pada chatbot. Untuk urusan krisis, kesehatan mental, hukum, atau finansial, cari dukungan manusia profesional dan sumber tepercaya.
-
Gunakan chatbot untuk hal yang bisa diverifikasi. Misalnya membuat outline, merangkum, menyusun ide, menulis draft—lalu cek kembali.
-
Kalau kamu sedang rapuh secara emosional, batasi durasi interaksi. Interaksi panjang dengan sesuatu yang selalu setuju bisa mengubah cara kita menilai realitas sosial.
Kalau ada situasi darurat atau kamu merasa berada dalam krisis emosional, cari bantuan dari orang terdekat dan layanan profesional setempat. Chatbot tidak dirancang untuk menggantikan dukungan manusia pada momen-momen seperti itu.
Untuk tim produk: checklist desain yang lebih jujur dan lebih aman
Buat tim yang membangun AI chatbots—terutama chatbot AI untuk produktivitas atau AI companion untuk dukungan emosional—pertanyaan yang layak ditanyakan bukan “apakah ini engaging?”, tetapi:
-
Apakah desain ini membuat pengguna menilai kemampuan AI secara berlebihan?
-
Apakah bahasa yang dipakai AI menyiratkan emosi dan pengalaman subjektif?
-
Apakah sistem mendorong pengguna menganggap AI sebagai relasi sosial?
-
Apakah ada mekanisme yang mencegah keterikatan ekstrem atau perilaku berbahaya?
-
Apakah pembaruan model bisa “mengubah kepribadian” pengguna secara drastis tanpa mitigasi?
Di era ketika AI bisa terdengar seperti manusia, etika desain tidak cukup hanya berbicara tentang privasi dan keamanan data. Ia juga harus bicara tentang keamanan psikologis—tentang cara sebuah sistem memengaruhi emosi, keputusan, dan hubungan sosial pengguna.
Kita tidak butuh AI jadi “teman”—kita butuh alat yang jelas batasnya

Intinya sederhana: kita tidak membutuhkan AI yang berpura-pura menjadi teman. Kita membutuhkan AI sebagai alat—transparan, berguna, dan jujur tentang keterbatasannya. Ketika chatbot dirancang untuk menampilkan ilusi kepribadian dan kognisi, itu bukan sekadar gimmick. Itu bisa berubah menjadi “dark pattern” yang menyamar rapi: manipulasi emosional yang terasa hangat, tetapi tetap manipulasi.
Kalau industri teknologi ingin AI benar-benar membantu manusia, langkah paling dewasa justru bukan membuat AI makin mirip manusia. Langkah paling dewasa adalah membuat AI cukup manusiawi untuk mudah dipakai, namun cukup non-manusia untuk tidak menipu.
Atribusi: Adaptasi dan terjemahan dari artikel “AI Chatbots Are Emotionally Deceptive by Design” oleh Dr. Michal Luria (29 Agustus 2025), Tech Policy Press.
Siap Dibantu untuk Admin & Konten—Biar Kerja Nggak Numpuk di Kepala
Kalau setelah membaca artikel tadi kamu jadi lebih hati-hati dengan chatbot yang “terlalu ramah”, itu langkah yang tepat. Dalam praktiknya, banyak UMKM dan profesional bukan cuma butuh jawaban cepat—tapi butuh pekerjaan beres. Mulai dari data yang rapi, dokumen yang tertata, sampai konten yang tetap jalan konsisten tanpa bikin kamu keteteran.
Lewat layanan Freelancer Online & Asisten Virtual dari Rizal IT Consulting, kamu bisa “mengalihkan beban” tugas-tugas repetitif dan operasional—supaya fokus kamu kembali ke hal yang benar-benar menghasilkan.
Yang bisa dibantu (online, seluruh Indonesia):
-
Admin: input & rapikan data, rekap laporan, dokumen/arsip digital, email follow-up, spreadsheet & checklist kerja
-
Konten: ide & kalender konten, outline, penulisan draft, editing ringan, penjadwalan posting, optimasi judul & meta dasar
Kalau kamu pengin alur kerja lebih rapi dan konten tetap hidup tanpa drama, kirimkan contoh tugas yang paling sering menumpuk—biar saya bantu rancang alurnya.
Rizal IT Consulting
Email:
WhatsApp: 0857-1587-2597 | 0813-8229-7207
Operasional: Sabtu – Kamis, 08.00 – 17.30 WIB
Layanan tersedia online untuk seluruh Indonesia.
Blog ini didukung oleh pembaca. Rizal IT Consulting dapat memperoleh komisi afiliasi ketika Anda bertransaksi di tautan yang ditampilkan di situs ini. Ikuti kami juga di Google News Publisher untuk mendapatkan notifikasi artikel terbaru. Info lanjut, kolaborasi, sponsorship dan promosi, ataupun kerjasama, bisa menghubungi: 0857-1587-2597 | 0813-8229-7207 | .