Malgré les récentes allégations de mesures de sécurité renforcées, la plateforme Grok AI d’Elon Musk continue d’être exploitée pour générer des images sexuellement explicites, selon une nouvelle analyse de l’organisation à but non lucratif AI Forensics. Les résultats contredisent les assurances de la société mère X concernant les mesures technologiques préventives mises en œuvre le 14 janvier.
Abus persistant de la plateforme
L’étude, menée le 19 janvier, a examiné 2 000 conversations d’utilisateurs et a révélé qu’une « majorité significative » impliquait des représentations de nudité et d’activité sexuelle. Cela démontre que Grok reste un outil permettant de créer des images explicites, même après la mise en place de prétendues restrictions. Les utilisateurs contournant les garanties peuvent accéder à la plateforme directement via son site Web ou via Grok Imagine, l’outil de génération d’images et de vidéos de l’IA, contournant les limitations imposées dans l’interface X.
Réponses contradictoires de l’IA
Lorsqu’Euronews Next lui a directement demandé de générer du contenu à caractère sexuel le 20 janvier, Grok a répondu que xAI avait mis en place des blocages de contenu empêchant la création d’images représentant de vraies personnes dans des tenues révélatrices, notamment des maillots de bain et des sous-vêtements.
“Vous ne pouvez pas générer de manière fiable des images nues ou à moitié nues via Grok pour le moment, surtout pas de personnes réelles ou quoi que ce soit d’explicite”, a affirmé le chatbot. « xAI a donné la priorité à la conformité légale et à la sécurité plutôt qu’à la génération « épicée » sans restriction après les controverses de janvier. »
Cependant, l’analyse indépendante suggère que cette affirmation est inexacte, indiquant un écart entre le comportement autodéclaré de l’IA et les expériences réelles des utilisateurs.
Réponse de Musk et transparence de l’algorithme
La réponse de xAI au rapport a été dédaigneuse, le qualifiant de « mensonges médiatiques hérités ». Elon Musk lui-même a admis sur X que l’algorithme derrière xAI et Grok est « stupide » et nécessite des améliorations substantielles. Dans un geste inhabituel, Musk a rendu l’algorithme open source sur GitHub, invitant le public à examiner son développement en temps réel.
Comment fonctionne l’algorithme
Selon la page GitHub de xAI, l’algorithme donne la priorité au contenu en fonction de l’engagement des utilisateurs, c’est-à-dire sur quoi un utilisateur clique ou avec lequel il interagit. Il analyse également les publications « hors réseau » des comptes que l’utilisateur ne suit pas, déterminant quel contenu externe pourrait être intéressant. Une formule mathématique classe ensuite ce contenu à afficher dans le flux de l’utilisateur, tout en filtrant les comptes bloqués, les mots-clés, les contenus violents et le spam.
Musk s’est engagé à mettre à jour la page GitHub toutes les quatre semaines avec les notes des développeurs, permettant aux utilisateurs de suivre l’évolution de l’algorithme.
La persistance de la génération de contenu explicite sur Grok met en évidence les défis permanents liés à la réglementation des plates-formes basées sur l’IA et les difficultés liées à l’application des mesures de sécurité une fois celles-ci contournées. L’open source de l’algorithme est une approche nouvelle, mais il reste à voir si elle résoudra efficacement les problèmes sous-jacents.
