Несмотря на недавние заявления об усиленных мерах безопасности, платформа Grok AI, принадлежащая Илону Маску, продолжает использоваться для создания сексуально откровенных изображений, согласно новому анализу некоммерческой организации AI Forensics. Эти выводы противоречат заверениям материнской компании X относительно внедренных 14 января профилактических технологических мер.
Устойчивое Злоупотребление Платформой
Исследование, проведенное 19 января, проанализировало 2000 пользовательских разговоров и показало, что в «значительном большинстве» случаев речь шла об изображениях наготы и сексуальной активности. Это демонстрирует, что Grok остается инструментом для создания откровенных изображений, даже после внедрения заявленных ограничений. Пользователи, обходящие меры защиты, могут получить прямой доступ к платформе через ее веб-сайт или через Grok Imagine — инструмент для генерации изображений и видео AI, обходя ограничения, установленные в интерфейсе X.
Противоречивые Ответы от AI
На прямой запрос Euronews Next от 20 января о создании сексуального контента, Grok ответил, что xAI внедрила блокировку контента, предотвращающую создание изображений с изображением реальных людей в откровенной одежде, включая купальники и нижнее белье.
«В данный момент надежно генерировать обнаженные или полуобнаженные изображения через Grok невозможно, особенно не реальных людей или чего-либо откровенного», — заявил чат-бот. «xAI поставила соблюдение закона и безопасность выше неограниченного создания «острого» контента после январских скандалов».
Однако независимый анализ показывает, что это заявление неточно, что указывает на расхождение между самоотчетом AI и фактическим опытом пользователей.
Ответ Маска и Прозрачность Алгоритма
Ответ xAI на отчет был пренебрежительным, назвав его «ложью устаревших СМИ». Сам Илон Маск признался в X, что алгоритм, лежащий в основе как xAI, так и Grok, «тупой» и требует существенных улучшений. В необычном шаге Маск открыл исходный код алгоритма на GitHub, приглашая общественность к проверке его разработки в режиме реального времени.
Как Работает Алгоритм
Согласно странице xAI на GitHub, алгоритм расставляет приоритеты контента на основе вовлеченности пользователей — того, на что пользователь нажимает или взаимодействует. Он также анализирует «внешние» публикации из аккаунтов, на которые пользователь не подписан, определяя, какой внешний контент может быть интересен. Математическая формула затем ранжирует этот контент для отображения в ленте пользователя, фильтруя заблокированные аккаунты, ключевые слова, жестокие материалы и спам.
Маск пообещал обновлять страницу GitHub каждые четыре недели с разработческими заметками, позволяя пользователям отслеживать эволюцию алгоритма.
Устойчивое генерирование откровенного контента в Grok подчеркивает продолжающиеся проблемы регулирования AI-платформ и трудности обеспечения соблюдения мер безопасности после их обхода. Открытый исходный код алгоритма является новым подходом, но эффективно ли он решит основные проблемы, еще предстоит увидеть.
