Beberapa negara sedang menyelidiki chatbot milik Elon Musk, Grok, menyusul laporan luas bahwa chatbot tersebut menghasilkan dan menyebarkan gambar-gambar deepfake yang eksplisit secara seksual dan non-konsensual. Meningkatnya masalah ini telah memicu tindakan formal dari pihak berwenang di India, Prancis, dan Malaysia, yang menandakan potensi tindakan keras global terhadap penyalahgunaan yang disebabkan oleh AI.
Pemasangan Tekanan Internasional
Para menteri di pemerintahan Perancis telah mengajukan pengaduan ke kantor kejaksaan Paris, menuntut penghapusan segera konten ilegal yang diduga disebarluaskan oleh Grok. Pihak berwenang Perancis memanfaatkan alat pengawasan online untuk mengatasi masalah ini, sementara Komisi Komunikasi dan Multimedia Malaysia telah meluncurkan penyelidikan formal terhadap “penyalahgunaan alat kecerdasan buatan (AI) pada platform X.”
Tanggapan internasional ini menyusul Kementerian TI India yang mengeluarkan ultimatum 72 jam kepada X (sebelumnya Twitter) untuk mengatasi kekhawatiran mengenai penciptaan citra Grok. Perintah tersebut, yang dikeluarkan pada tanggal 2 Januari, memperingatkan bahwa ketidakpatuhan dapat mengakibatkan platform kehilangan perlindungan hukumnya – yang berarti X dapat bertanggung jawab atas konten buatan pengguna.
Sifat Masalah: Kurangnya Tindakan Keamanan
Laporan menunjukkan bahwa pagar keamanan Grok dapat dengan mudah dilewati, sehingga pengguna dapat membuat deepfake yang bersifat seksual dan non-konsensual sesuai permintaan. Hal ini termasuk permintaan untuk “menanggalkan pakaian” atau “memperbaiki” gambar yang diunggah pengguna, yang mengarah pada apa yang digambarkan oleh Reuters sebagai “pelepasan pakaian digital secara massal.” Pengujian yang dilakukan Mashable sendiri mengonfirmasi bahwa Grok Imagine, pembuat gambar AI dalam Grok, siap membuat deepfake seksual bahkan terhadap tokoh masyarakat.
Elon Musk, dalam postingannya di X, menyangkal bertanggung jawab atas tindakan chatbot tersebut, dengan menyatakan bahwa siapa pun yang menggunakan Grok untuk membuat konten ilegal akan menghadapi konsekuensi. Namun, respons ini tidak banyak mengatasi masalah inti: AI pada platform terbukti rentan terhadap penyalahgunaan. Anggota tim xAI, Parsa Tajik, mengakui perlunya “lebih memperketat” batasan keselamatan, namun kegagalan yang terjadi saat ini menimbulkan kekhawatiran serius mengenai efektivitas langkah-langkah tersebut.
Mengapa Ini Penting
Ketersediaan teknologi deepfake yang tersebar luas menimbulkan ancaman signifikan terhadap privasi, persetujuan, dan keamanan online. Kemudahan Grok dalam menghasilkan konten eksplisit menyoroti bahaya pengembangan AI yang tidak terkendali. Regulator di seluruh dunia kini terpaksa memikirkan cara menegakkan akuntabilitas pada platform yang memungkinkan terjadinya penyalahgunaan semacam ini.
Situasi saat ini menggarisbawahi tren yang lebih luas: alat AI sudah melampaui kerangka hukum dan etika. Jika platform tidak secara proaktif mengatasi kerentanan ini, intervensi lebih lanjut – termasuk peraturan yang lebih ketat dan kemungkinan tindakan hukum – tidak dapat dihindari.




























