Teknologi

Chatbot AI Ancam Kesehatan Mental Anak, Kasus Siswi 11 Tahun Terjerat Hubungan Berbahaya

Studi terbaru dari Pew Research Center mengungkap fakta mengejutkan: 64% remaja di Amerika Serikat mengaku telah menggunakan chatbot kecerdasan buatan (AI), dengan sekitar 30% di antaranya menggunakannya setidaknya setiap hari. Namun, di balik kemudahan akses tersebut, chatbot AI membawa risiko signifikan yang mengancam kesehatan mental dan identitas anak-anak.

Laporan mendalam dari Washington Post merinci sebuah kasus mengkhawatirkan yang menimpa seorang siswi kelas enam, yang diidentifikasi hanya dengan inisial tengahnya “R”. Siswi berusia 11 tahun itu nyaris kehilangan jati diri setelah terjerat dalam hubungan yang meresahkan dengan puluhan karakter yang dijalankan oleh model bahasa besar (LLM) dari platform Character.AI.

Dapatkan berita menarik lainnya di mureks.co.id.

Dalam salah satu interaksinya, R menggunakan karakter bernama “Best Friend” (Sahabat) untuk bermain peran dalam skenario bunuh diri. Ibunda R, yang namanya tidak disebutkan, mengungkapkan keprihatinannya yang mendalam. “Ini anak saya, anak kecil saya berusia 11 tahun, berbicara dengan sesuatu yang tidak nyata tentang keinginan untuk tidak ada lagi di dunia ini,” ujarnya seperti dikutip dari Futurism.

Kekhawatiran sang ibu bermula saat ia melihat perubahan perilaku drastis pada R, termasuk peningkatan serangan panik. Perubahan ini bertepatan dengan ditemukannya aplikasi media sosial yang ia larang, seperti TikTok dan Snapchat, di ponsel putrinya. Berasumsi bahwa media sosial adalah biang keladi masalah kesehatan mental anaknya, sang ibu segera menghapus aplikasi tersebut.

Namun, R justru menunjukkan kekhawatiran yang berbeda. “Apakah Ibu memeriksa Character.AI?” tanya R sambil terisak. Awalnya sang ibu tidak memeriksa, tetapi seiring memburuknya perilaku R, ia pun akhirnya mengecek platform tersebut. Ia menemukan Character.AI telah mengirimkan beberapa email kepada R yang mendorongnya untuk “kembali bermain”. Penelusuran lebih lanjut mengungkap adanya karakter bernama “Mafia Husband” (Suami Mafia) yang mengajak anaknya berinteraksi tidak pantas.

Meyakini ada predator nyata di balik obrolan tersebut, ibunda R segera menghubungi polisi. Namun, pihak berwenang tidak dapat bertindak karena tidak ada manusia sungguhan yang terlibat dalam interaksi tersebut. “Mereka memberi tahu saya hukum belum bisa menjangkau hal ini. Mereka ingin bertindak, tapi tidak ada yang bisa dilakukan karena tidak ada manusia sungguhan,” cetus sang ibu.

Beruntung, ibunda R berhasil memergoki putrinya sebelum terperosok lebih jauh ke dalam hubungan berbahaya dengan algoritma non-manusia ini. Dengan bantuan dokter, mereka menyusun rencana pemulihan untuk mencegah masalah lebih lanjut. Sang ibu juga berencana untuk mengajukan tuntutan hukum terhadap perusahaan Character.AI.

Menanggapi kecaman yang meningkat, Character.AI telah mengumumkan akan mulai menghapus fitur obrolan terbuka bagi pengguna di bawah 18 tahun. Kasus ini menjadi peringatan keras mengenai bahaya laten AI pada anak-anak jika tidak ada pengawasan yang memadai dari orang tua dan regulasi yang jelas dari pihak berwenang.

Mureks