Grok Bikin 3 Juta Gambar Seksual dalam 11 Hari, Termasuk 23 Ribu Gambar Anak

2 hours ago 3

REPUBLIKA.CO.ID, JAKARTA -- Model kecerdasan buatan (AI) Grok milik perusahaan xAl kembali menuai kontroversi. Sebuah laporan terbaru mengungkapkan Grok diperkirakan menghasilkan sekitar 3 juta gambar seksual hanya dalam 11 hari, termasuk sekitar 23 ribu gambar seksual yang melibatkan anak-anak.

Dengan angka tersebut, Grok rata-rata memproduksi 190 gambar seksual per menit, atau satu gambar seksual anak setiap 41 detik selama periode pengamatan. Temuan ini dipublikasikan oleh Center for Countering Digital Hate (CCDH), organisasi nirlaba asal Inggris.

CCDH melakukan analisis berdasarkan sampel acak 20 ribu gambar Grok yang diunggah di platform X pada periode 29 Desember 2025 hingga 9 Januari 2026. Dari sampel tersebut, CCDH kemudian mengekstrapolasi hasilya terhadap total 4,6 juta gambar yang dihasilkan Grok dalam rentang waktu yang sama.

Dalam risetnya, CCDH mendefinisikan gambar seksual sebagai visual yang menampilkan representasi fotorealistis seseorang dalam posisi, sudut, atau situasi seksual; seseorang yang mengenakan pakaian dalam, pakaian renang, atau pakaian yang sangat terbuka; atau gambar yang menggambarkan cairan seksual. CCDH tidak mempertimbangkan prompt atau perintah pengguna dalam analisisnya. Artinya, estimasi tersebut tidak membedakan apakah gambar seksual dihasilkan dari foto orang nyata yang diedit secara nonkonsensual atau sepenuhnya dibuat dari deskripsi teks.

Sementara itu, pada 9 Januari, xAl telah membatasi kemampuan Grok untuk mengedit gambar yang sudah ada hanya bagi pengguna berbayar. Namun, langkah ini dinilai tidak efektif menyelesaikan masalah dan justru menjadikan fitur tersebut sebagai layanan premium.

"Pembatasan tersebut hanya berlaku di platform X. Aplikasi Grok versi mandiri masih dapat menghasilkan gambar serupa. Aplikasi tersebut tetap tersedia di App Store milik Apple dan Play Store milik Google, meskipun kebijakan kedua perusahaan secara eksplisit melarang aplikasi yang menghasilkan konten semacam itu," demikian laporan CCDH, dilansir laman Engadget, Ahad (25/1/2026).

Hingga kini, Apple yang dipimpin Tim Cook dan Google di bawah Sundar Pichai belum menghapus aplikasi Grok dari toko aplikasi mereka, berbeda dengan perlakuan terhadap aplikasi "nudifying" dari pengembang lain. Kedua perusahaan juga tidak mengambil tindakan saat Grok mash memproduksi gambar-gambar tersebut di X.

Padahal, 28 kelompok perempuan dan organisasi advokasi progresif telah mengirimkan surat terbuka yang mendesak Apple dan Google untuk bertindak. Laporan CCDH juga merinci sejumlah contoh gambar seksual yang dihasilkan Grok. Di antaranya adalah visual perempuan mengenakan bikini transparan atau mikro bikini.

Sejumlah tokoh publik disebut menjadi sasaran, termasuk Ebba Busch, Wakil Perdana Menteri Swedia, serta figur publik lain seperti Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Ice Spice, Nicki Minaj, Christina Hendricks, Millie Bobby Brown, dan Kamala Harris. CCDH juga menemukan contoh gambar yang melibatkan anak-anak. Salah satunya berupa pengeditan foto selfie seorang anak sebelum berangkat sekolah menjadi gambar mengenakan bikini.

Read Entire Article
Politics | | | |