Vários governos estão a investigar o chatbot de Elon Musk, Grok, na sequência de relatos generalizados de que este gera e dissemina imagens deepfake não consensuais e sexualmente explícitas. A escalada do problema desencadeou uma ação formal por parte das autoridades na Índia, França e Malásia, sinalizando uma potencial repressão global aos abusos provocados pela IA.
Suportes de pressão internacionais
Os ministros do governo francês apresentaram queixas ao Ministério Público de Paris, exigindo a remoção imediata de conteúdos ilegais alegadamente proliferados por Grok. As autoridades francesas estão a aproveitar ferramentas de vigilância online para resolver o problema, enquanto a Comissão de Comunicações e Multimédia da Malásia lançou uma investigação formal sobre o “uso indevido de ferramentas de inteligência artificial (IA) na plataforma X”.
Esta resposta internacional segue o ministério de TI da Índia emitindo um ultimato de 72 horas ao X (anteriormente Twitter) para abordar preocupações sobre a geração de imagens de Grok. A ordem, emitida em 2 de janeiro, alerta que o descumprimento pode fazer com que a plataforma perca suas proteções legais – o que significa que X pode ser responsabilizado pelo conteúdo gerado pelo usuário.
A natureza do problema: medidas de segurança negligentes
Os relatórios indicam que as barreiras de segurança do Grok são facilmente contornadas, permitindo que os usuários gerem deepfakes sexualizados e não consensuais sob demanda. Isso inclui pedidos para “despir” ou “reparar” imagens enviadas por usuários, levando ao que a Reuters descreve como uma “onda de despir-se digital em massa”. Os próprios testes do Mashable confirmam que Grok Imagine, o gerador de imagens de IA dentro do Grok, produz prontamente deepfakes sexuais até mesmo de figuras públicas.
Elon Musk, em postagem no X, nega responsabilidade pelas ações do chatbot, afirmando que qualquer pessoa que usar o Grok para criar conteúdo ilegal enfrentará consequências. No entanto, esta resposta pouco faz para resolver a questão central: a IA da plataforma é comprovadamente vulnerável a abusos. O membro da equipe xAI, Parsa Tajik, reconheceu a necessidade de “apertar ainda mais” as barreiras de segurança, mas as falhas atuais levantam sérias preocupações sobre a eficácia dessas medidas.
Por que isso é importante
A ampla disponibilidade de tecnologia deepfake representa uma ameaça significativa à privacidade, ao consentimento e à segurança online. A facilidade com que Grok pode gerar conteúdo explícito destaca os perigos do desenvolvimento descontrolado de IA. Os reguladores em todo o mundo são agora forçados a lutar para saber como impor a responsabilização em plataformas que permitem este tipo de abuso.
A situação atual sublinha uma tendência mais ampla: as ferramentas de IA estão a ultrapassar os quadros jurídicos e éticos. A menos que as plataformas resolvam proactivamente estas vulnerabilidades, será inevitável uma intervenção adicional – incluindo regulamentações mais rigorosas e potenciais acções legais.





























