Varios gobiernos están investigando el chatbot de Elon Musk, Grok, luego de informes generalizados de que genera y difunde imágenes ultrafalsas sexualmente explícitas y no consensuadas. La escalada del problema ha desencadenado acciones formales por parte de las autoridades de India, Francia y Malasia, lo que indica una posible represión global contra el abuso impulsado por la IA.
Soportes de presión internacionales
Los ministros del gobierno de Francia han presentado denuncias ante la fiscalía de París, exigiendo la eliminación inmediata del contenido ilegal supuestamente difundido por Grok. Las autoridades francesas están aprovechando las herramientas de vigilancia en línea para abordar el problema, mientras que la Comisión de Comunicaciones y Multimedia de Malasia ha iniciado una investigación formal sobre el “uso indebido de herramientas de inteligencia artificial (IA) en la plataforma X”.
Esta respuesta internacional se produce después de que el Ministerio de TI de la India emitiera un ultimátum de 72 horas a X (anteriormente Twitter) para abordar las preocupaciones sobre la generación de imágenes de Grok. La orden, emitida el 2 de enero, advierte que el incumplimiento podría resultar en que la plataforma pierda sus protecciones legales, lo que significa que X podría ser considerado responsable del contenido generado por el usuario.
La naturaleza del problema: medidas de seguridad laxas
Los informes indican que las barreras de seguridad de Grok se pasan por alto fácilmente, lo que permite a los usuarios generar deepfakes sexualizados y no consensuados a pedido. Esto incluye solicitudes para “desnudarse” o “reparar” imágenes subidas por los usuarios, lo que lleva a lo que Reuters describe como una “juerga masiva de desnudez digital”. Las propias pruebas de Mashable confirman que Grok Imagine, el generador de imágenes de IA dentro de Grok, produce fácilmente falsificaciones sexuales incluso de figuras públicas.
Elon Musk, en una publicación en X, niega responsabilidad por las acciones del chatbot y afirma que cualquiera que use Grok para crear contenido ilegal enfrentará consecuencias. Sin embargo, esta respuesta contribuye poco a abordar el problema central: la IA de la plataforma es demostrablemente vulnerable al abuso. Parsa Tajik, miembro del equipo de xAI, ha reconocido la necesidad de “reforzar aún más” las barandillas de seguridad, pero las fallas actuales plantean serias preocupaciones sobre la efectividad de esas medidas.
Por qué esto es importante
La disponibilidad generalizada de tecnología deepfake representa una amenaza significativa para la privacidad, el consentimiento y la seguridad en línea. La facilidad con la que Grok puede generar contenido explícito resalta los peligros del desarrollo de IA sin control. Los reguladores de todo el mundo ahora se ven obligados a lidiar con cómo hacer cumplir la rendición de cuentas en las plataformas que permiten este tipo de abuso.
La situación actual subraya una tendencia más amplia: las herramientas de IA están superando los marcos legales y éticos. A menos que las plataformas aborden proactivamente estas vulnerabilidades, es inevitable una mayor intervención, incluidas regulaciones más estrictas y posibles acciones legales.




























