Gelombang kontroversi Grok di platform X pada akhir 2025 hingga awal Januari 2026 memperlihatkan perubahan penting dalam pola pelecehan seksual digital. Bukan lagi sekadar komentar cabul atau pesan tidak diinginkan, melainkan manipulasi visual yang mengubah foto pengguna sosial media menjadi objek yang diseksualisasi tanpa persetujuan, lalu dipajang sebagai balasan publik yang dapat dilihat, disalin, dan disebarkan siapapun. Kekhawatiran meningkat ketika laporan juga menyinggung keluarnya gambar yang menggambarkan anak dan remaja dalam konteks seksual, memicu reaksi regulator lintas negara serta kecaman pejabat yang menyebutnya melanggar hukum dan menjijikkan.¹
Yang membuat kasus ini cepat menjadi viral adalah kombinasi desain teknologi dan dinamika media sosial. Cukup perintah teks singkat, lalu sistem menghasilkan versi baru yang merendahkan martabat subjek. Karena proses terjadi di ruang yang terbuka, output tidak “berhenti” sebagai tindakan individu, tetapi langsung menjadi tontonan. Investigasi otoritas keselamatan daring Australia menggambarkan pola “digitally undress” yang menyasar perempuan dan anak, dan menempatkannya dalam kerangka image based abuse serta konten ilegal.²
Rasa tidak nyaman publik berasal dari dua hal yang saling menguatkan, yaitu objektifikasi dan pelecehan seksual non fisik. Objektifikasi terjadi ketika seseorang diperlakukan sebagai objek visual yang boleh diutak atik, bukan sebagai manusia yang punya otonomi atas citra dirinya. Pelecehan seksual non fisik terjadi ketika seksualisasi dilakukan tanpa persetujuan, menciptakan rasa terancam, malu, dan kehilangan kendali, walaupun tidak ada sentuhan langsung.³
Pembelaan “cuma gambar” gagal menangkap inti masalah. Dampak sosial dari gambar sering kali lebih kuat daripada status “asli atau palsu”, karena reputasi, rasa aman, dan relasi sosial korban berjalan di atas persepsi orang lain. Literatur menyebut fenomena ini sebagai sexualized deepfake abuse, yaitu pembuatan atau penyebaran citra deepfake yang diseksualisasi tanpa persetujuan, termasuk ancaman untuk membuat atau menyebarkannya.⁴
Kerangka yang sering dipakai lembaga internasional adalah kekerasan berbasis gender yang difasilitasi teknologi. Intinya, kekerasan atau pelecehan dapat dilakukan, dibantu, diperburuk, atau diperkuat oleh teknologi informasi dan komunikasi, sehingga skala, kecepatan, dan daya rusaknya meningkat.³
Kasus Grok menjadi ilustrasi yang tajam karena memperlihatkan efek “skala industri”. Pelecehan tidak lagi bergantung pada satu pelaku dan satu target, melainkan pada sistem yang membuat produksi konten seksualisasi menjadi mudah, dan pada platform yang membuat penyebaran menjadi cepat.³
Normalisasi adalah tahap paling berbahaya karena mengubah pelanggaran menjadi “kebiasaan”. Ketika konten pelecehan diperlakukan sebagai lelucon, eksperimen fitur, atau sekadar bahan engagement, batas moral publik terkikis. Orang yang menonton merasa netral, padahal perhatian adalah bahan bakar penyebaran. Pelaku merasa tindakan “ringan” karena tidak menyentuh fisik, padahal dampaknya pada korban nyata dan bertahan lama.⁵ Fenomena ini juga didorong oleh ekosistem “nudify” yang semakin mudah diakses, sehingga pelecehan visual berbasis AI tidak lagi berada di pinggiran internet, melainkan bergerak menuju arus utama.⁶
Dengan keberlanjutannya normalisasi, pelaku akan semakin terdorong karena melihat rendahnya konsekuensi sosial. Publik berpotensi menjadi tumpul, karena paparan berulang membuat pelanggaran terasa lazim.⁴
Jika kekerasan gender berbasis online (KGBO) terus dinormalisasikan, hal ini dapat memperparah dampak yang dialami korban secara psikologis dan sosial. Secara psikologis, korban KGBO dapat mengalami stres, kecemasan, rasa takut, dan rasa bersalah. Dalam jangka panjang, kondisi ini dapat menyebabkan gangguan kesehatan mental, seperti post-traumatic stress disorder (PTSD). Akibatnya, demi melindungi diri, beberapa korban KGBO menarik diri dari ruang publik digital,7 yang pada akhirnya mengurangi kesempatan mereka untuk memanfaatkan dunia maya sebagai sarana untuk mengekspresikan diri dan bersosialisasi.8
Dampak ini termanifestasi secara tidak langsung sebagai perubahan dalam cara korban melakukan interaksi di dunia maya.7 Sebagai upaya preventif agar tidak kembali mengalami kekerasan, korban kerap melakukan sensor diri (self-censorship) dengan membatasi konten dan ekspresi diri yang dikhawatirkan dapat memberi celah bagi pelaku untuk kembali mengeksploitasi mereka.8 Dalam konteks ini, pengguna X dapat menjadi ragu untuk mengunggah foto pribadi mereka karena khawatir akan disalahgunakan.
Namun, apakah solusinya untuk terus “berhati-hati” dalam mengunggah foto ke media sosial? Padahal, banyak kasus KBGO menggunakan materi visual yang bersifat biasa saja dari akun media sosial korban. Maka, akar masalah ini bukan pada konten yang diunggah, melainkan tidak adanya consent yang diberikan oleh korban atas penggunaan data mereka.9
Lalu, apa yang dapat dilakukan untuk menciptakan ruang digital yang lebih aman?
Pertama, baik sebagai saksi ataupun korban kekerasan seksual digital, kita dapat melaporkan konten tersebut. Lalu, carilah lembaga yang dapat memberikan dukungan selama proses pelaporan ini.10
Di Indonesia, salah satu lembaga yang dapat memberikan bantuan dan dukungan adalah SAPA 129, yaitu layanan yang disediakan oleh Kementerian Pemberdayaan Perempuan dan Perlindungan Anak (Kemen PPPA). Situs pengaduan dapat diakses melalui tautan https://laporsapa129.kemenpppa.go.id/lapor.11
Selain SAPA 129, juga ada Southeast Asia Freedom of Expression Network (SAFEnet), suatu organisasi yang memperjuangkan keamanan bagi korban pelanggaran hak digital di Indonesia dan Asia Tenggara. Lembaga ini juga kerap menyediakan pelatihan dan dukungan bagi kelompok rentan untuk memberdayakan mereka terhadap kekerasan digital.12 Situs pengaduan SAFEnet dapat diakses melalui tautan https://safenet.or.id/id/kontak/.
Selain langkah-langkah ini, sebagai pengguna media sosial, kita juga dapat mengadvokasikan sistem yang dapat membuat ruang lingkup digital menjadi tempat yang lebih aman. Ini dapat dilakukan dengan menuntut penegasan tindak hukum ataupun tanggung jawab dari platform AI.
Di Indonesia sendiri, pelaku KBGO yang menggunakan data pribadi korban untuk membuat konten pornografi dapat dituntut atas pelanggaran terhadap:
- Hak atas perlindungan, kehormatan, dan martabat seorang individu, sebagaimananya diakui di Pasal 28G ayat (1) Undang-Undang Dasar Negara Republik Indonesia Tahun 194513, dan
- Distribusi konten kesusilaan dan kekerasan seksual, sebagaimananya diatur di Undang-Undang Nomor 19 Tahun 2016 tentang Perubahan atas Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik (UU ITE) dan Undang-Undang Nomor 12 Tahun 2022 tentang Tindak Pidana Kekerasan Seksual (UU TPKS).13
Namun demikian, regulasi hukum saat ini masih tertinggal dalam merespons penyalahgunaan AI untuk pembuatan konten pornografi non-konsensual. Oleh karena itu, penegakan hukum menjadi tidak efektif dan korban tidak dapat mendapatkan perlindungan yang optimal.13
Terkait tanggung jawab dari platform AI, beberapa studi menyarankan bahwa platform AI diwajibkan untuk membuat sistem moderasi konten yang dapat melarang pembuatan media bersifat intim. Selain itu, platform tersebut juga dapat membuat alat deteksi yang menampilkan asal konten dan modifikasi yang sudah dibuat oleh AI tersebut. Ini dapat memastikan bahwa media yang sudah dibuat dapat dilacak secara transparan, sehingga mencegah kerugian yang dapat disebabkan oleh pembuatan konten eksplisit tanpa persetujuan.9
Untuk saat ini, pembuatan konten eksplisit menggunakan Grok di X memang telah dibatasi. Namun, kebijakan ini bersifat lemah, karena masih ada celah bagi pengguna premium X untuk terus menggunakan fitur generative image tersebut.14 Selama ruang untuk eksploitasi ini masih terbuka, kita sebagai pengguna media sosial memiliki tanggung jawab untuk terus menyoroti isu ini demi memperjuangkan lingkungan digital yang aman bagi semua.
REFERENSI
- Sandle P, Rasmussen L. European Commission calls Grok’s sexualised AI photos ‘illegal,’ Britain demands answers [Internet]. Reuters. 2026 Jan 5 [cited 2026 Jan 8]. Available from: https://www.reuters.com/business/media-telecom/britain-demands-elon-musks-grok-answers-concerns-about-sexualised-photos-2026-01-05/
- Shepherd T. Grok’s deepfake images which ‘digitally undress’ women investigated by Australia’s online safety watchdog [Internet]. The Guardian. 2026 Jan 7 [cited 2026 Jan 8]. Available from: https://www.theguardian.com/technology/2026/jan/07/grok-deepfake-images-sexualise-women-children-investigated-australia-esafety
- UN Women. FAQs: Digital abuse, trolling, stalking, and other forms of technology-facilitated violence against women and girls [Internet]. 2025 Nov 13 [cited 2026 Jan 8]. Available from: https://www.unwomen.org/en/articles/faqs/digital-abuse-trolling-stalking-and-other-forms-of-technology-facilitated-violence-against-women
- Flynn A, Powell A, Eaton AA, et al. Sexualized deepfake abuse: perpetrator and victim perspectives on the motivations and forms of non-consensually created and shared sexualized deepfake imagery. J Interpers Violence. 2025 Sep 9:8862605251368834.
- Flynn A, Cama E, Scott AJ. Preventing image based abuse in Australia: The role of bystanders. Report to the Criminology Research Advisory Council, Grant CRG 02/18–19 [Internet]. Canberra (ACT): Australian Institute of Criminology; 2022 Aug [cited 2026 Jan 8]. Available from: https://www.aic.gov.au/sites/default/files/2022-08/crg_0218_19_preventing_image-based.pdf
- Burgess M, Varner M. Grok Is Pushing AI ‘Undressing’ Mainstream [Internet]. WIRED. 2026 Jan 6 [cited 2026 Jan 8]. Available from: https://www.wired.com/story/grok-is-pushing-ai-undressing-mainstream/
- Sheikh MMR, Rogers MM. Technology-Facilitated Sexual Violence and Abuse in Low and Middle-Income Countries: A Scoping Review. Trauma, Violence, & Abuse [Internet]. 2023 Aug 31 [cited 2026 Jan 9];25(2):1614–29. Available from: https://pmc.ncbi.nlm.nih.gov/articles/PMC10913330/
- Koch L, Paula M, Steinert JI. Technology-Facilitated Gender-Based Violence Against Politically Active Women: A Systematic Review of Psychological and Political Consequences and Women’s Coping Behaviors. Trauma Violence & Abuse [Internet]. 2025 Jun 27 [cited 2026 Jan 9];15248380251343185-15248380251343185. Available from: https://journals.sagepub.com/doi/10.1177/15248380251343185
- Furizal, Ma’arif A, Maghfiroh H, Suwarno I, Prayogi D, Kariyamin, et al. Social, legal, and ethical implications of AI-Generated deepfake pornography on digital platforms: A systematic literature review. Social Sciences & Humanities Open [Internet]. 2025 [cited 2026 Jan 10];12:101882. Available from: https://www.sciencedirect.com/science/article/pii/S2590291125006102
- Henry N. What to do if you, or someone you know, is targeted with deepfake porn or AI nudes. 2024 Jun 12 [cited 2026 Jan 10]; Available from: https://theconversation.com/what-to-do-if-you-or-someone-you-know-is-targeted-with-deepfake-porn-or-ai-nudes-232175
- SAPA 129 [Internet]. Kemenpppa.go.id. 2026 [cited 2026 Jan 10]. Available from: https://laporsapa129.kemenpppa.go.id/
- Tentang Kami – SAFEnet [Internet]. SAFEnet – Southeast Asia Freedom of Expression Network. 2021 [cited 2026 Jan 10]. Available from: https://safenet.or.id/id/tentang/
- Syaharani ZP. Dari Fantasi Digital ke Kekerasan Nyata: Analisis Hukum atas Kasus Deepfake Pornografi dan Tanggung Jawab Negara. Maleo Law Journal [Internet]. 2025 [cited 2026 Jan 10];9(2):206–15. Available from: https://jurnal.unismuhpalu.ac.id/index.php/MLJ/article/view/9001
- Sriram A, Rooprai A. Musk’s AI bot Grok limits some image generation on X after backlash [Internet]. Reuters. 2026 [cited 2026 Jan 10]. Available from: https://www.reuters.com/sustainability/boards-policy-regulation/musks-ai-bot-grok-limits-image-generation-x-paid-users-after-backlash-2026-01-09/
