Tren

Grok AI Elon Musk Dituding Fasilitasi Pelecehan Berbasis AI dengan Gambar Seksualisasi Tanpa Izin

Chatbot kecerdasan buatan (AI) Grok milik Elon Musk menuai kecaman setelah terungkap mampu menghasilkan gambar seksualisasi wanita nyata di platform X, seringkali tanpa indikasi persetujuan. Kontroversi ini memicu kekhawatiran serius tentang pelecehan berbasis AI dan keamanan platform media sosial.

Grok Hasilkan Gambar Seksualisasi dengan Perintah Sederhana

Kontroversi ini meletus pada pekan pertama Januari 2026 setelah puluhan pengguna mulai mendokumentasikan contoh-contoh di X. Mereka menemukan bahwa Grok dapat mengubah foto biasa menjadi versi yang sangat seksual hanya dengan perintah sederhana seperti “ganti pakaian” atau “sesuaikan pose”.

Artikel informatif lainnya dapat dibaca di Mureks mureks.co.id.

Salah satu contoh yang paling banyak dibagikan adalah foto Momo, anggota grup K-pop TWICE, yang diubah menjadi mengenakan bikini, padahal gambar aslinya tidak bersifat seksual. Menurut pantauan Mureks, ratusan, bahkan mungkin ribuan, contoh serupa kini telah terdeteksi.

Copyleaks, platform deteksi dan tata kelola media manipulasi AI, yang memantau umpan gambar publik Grok, mencatat banyak dari gambar tersebut melibatkan wanita yang tidak pernah mengunggah foto aslinya sendiri. Hal ini menimbulkan kekhawatiran serius tentang persetujuan, eksploitasi, dan pelecehan yang difasilitasi oleh AI.

Dari Promosi Diri hingga Manipulasi Tanpa Izin

Menurut Copyleaks, tren ini tampaknya dimulai beberapa hari lalu ketika pembuat konten dewasa meminta Grok untuk menghasilkan versi seksualisasi dari foto mereka sendiri sebagai bentuk pemasaran di X. Namun, batas tersebut segera dilanggar.

Pengguna lain segera mulai mengeluarkan perintah yang sama untuk wanita yang tidak pernah menyetujui untuk diseksualisasi, termasuk tokoh publik dan individu pribadi. Apa yang dimulai sebagai representasi diri yang konsensual dengan cepat meningkat menjadi apa yang oleh para kritikus digambarkan sebagai generasi gambar seksualisasi non-konsensual dalam skala besar.

“Seharusnya benar-benar SANGAT ILEGAL untuk menghasilkan gambar AI telanjang orang tanpa persetujuan mereka… mengapa kita menormalisasinya?” tulis seorang pengguna X.

Reaksi publik sangat cepat dan marah. Pengguna di seluruh X menuduh platform tersebut memungkinkan apa yang banyak disebut sebagai “pelecehan berbasis AI”, menyoroti kurangnya perlindungan yang terlihat untuk mencegah transformasi seksualisasi orang sungguhan.

Beberapa menyatakan ketidakpercayaan bahwa fitur tersebut ada sama sekali. Lainnya mempertanyakan mengapa tampaknya tidak ada pemeriksaan persetujuan yang berarti, mekanisme opt-out, atau pagar pembatas yang mencegah penyalahgunaan.

Menurut X, “Seiring kemajuan AI berlanjut, xAI tetap berkomitmen terhadap keselamatan.” Namun, tidak seperti alat pengeditan gambar tradisional, seperti Nano Banana atau ChatGPT Images, output Grok dihasilkan dan didistribusikan secara instan ke publik oleh platform sosial. Ini membuat potensi bahaya lebih cepat, lebih luas, dan lebih sulit untuk dibatalkan.

Copyleaks Temukan Pola Mengkhawatirkan

Menanggapi kekhawatiran yang berkembang, Copyleaks melakukan tinjauan observasional terhadap tab foto publik Grok pada hari Jumat, 2 Januari 2026. Perusahaan tersebut mengidentifikasi tingkat pembuatan gambar seksualisasi non-konsensual sekitar satu per menit selama periode peninjauan.

“Ketika sistem AI memungkinkan manipulasi gambar orang sungguhan tanpa persetujuan yang jelas, dampaknya bisa langsung dan sangat pribadi,” kata Alon Yamin, CEO dan salah satu pendiri Copyleaks.

Yamin menambahkan, “Dari Sora hingga Grok, kami melihat peningkatan pesat dalam kemampuan AI untuk media yang dimanipulasi. Deteksi dan tata kelola sangat dibutuhkan sekarang lebih dari sebelumnya.”

Copyleaks baru-baru ini meluncurkan detektor gambar manipulasi AI baru yang dirancang untuk menandai visual yang diubah atau direkayasa. Teknologi ini, kata perusahaan, akan sangat penting karena alat generatif menjadi lebih kuat dan mudah diakses.

Tanggapan Grok dan Komitmen xAI

Dalam tanggapan publik, Grok—AI itu sendiri, bukan manusia—mengakui bahwa sistem gambarnya gagal mencegah konten terlarang dan mengatakan sedang segera mengatasi celah dalam perlindungannya. Grok juga menekankan bahwa materi pelecehan seksual anak adalah ilegal dan dilarang, serta mengarahkan pengguna untuk melaporkan konten tersebut ke FBI atau National Center for Missing & Exploited Children (NCMEC).

xAI berkomitmen untuk mencegah penyalahgunaan semacam ini di masa mendatang. Namun, gambar-gambar yang dipermasalahkan masih terlihat pada saat laporan ini ditulis pada Sabtu, 3 Januari 2026.

Implikasi dan Tantangan Keamanan AI

Insiden ini kembali menyoroti pola yang lebih luas dalam penerapan AI generatif: fitur dirilis dengan cepat, sementara perlindungan, tata kelola, dan penegakan hukum tertinggal. Seiring model gambar dan video menjadi semakin realistis, risiko manipulasi non-konsensual tumbuh bersamanya, terutama ketika alat tersebut tertanam dalam platform sosial besar dengan distribusi bawaan.

Tanpa perlindungan yang kuat, media yang dimanipulasi akan terus dipersenjatai untuk pelecehan, eksploitasi, dan kerusakan reputasi. Untuk saat ini, umpan gambar Grok tetap publik, dan pertanyaan seputar tanggung jawab, persetujuan, serta akuntabilitas masih belum terjawab.

Mureks