додому Останні новини та статті Grok AI продовжує створювати відвертий вміст, незважаючи на обмеження, показує дослідження

Grok AI продовжує створювати відвертий вміст, незважаючи на обмеження, показує дослідження

Grok AI продовжує створювати відвертий вміст, незважаючи на обмеження, показує дослідження

Незважаючи на нещодавні оголошення про посилені заходи безпеки, згідно з новим аналізом некомерційної організації AI Forensics, платформа Grok AI Ілона Маска продовжує використовуватися для створення зображень сексуального характеру. Ці висновки суперечать запевненням материнської компанії X щодо профілактичних технологічних заходів, запроваджених 14 січня.

Тривале зловживання платформою

Дослідження від 19 січня проаналізувало 2000 розмов користувачів і виявило, що «значна більшість» розмов включала зображення оголеного тіла та сексуальної активності. Це демонструє, що Grok залишається інструментом для створення відвертих зображень, навіть після впровадження заявлених обмежень. Користувачі, які обходять заходи безпеки, можуть отримати прямий доступ до платформи через її веб-сайт або через Grok Imagine, інструмент створення зображень і відео AI, в обхід обмежень, встановлених в інтерфейсі X.

Суперечливі відповіді від ШІ

У відповідь на прямий запит Euronews Next 20 січня про створення сексуального контенту Грок відповів, що xAI запровадив блокування контенту, щоб запобігти створенню зображень реальних людей у відкритому одязі, включаючи купальники та нижню білизну.

«Наразі через Grok неможливо надійно генерувати оголені чи напівоголені зображення, особливо реальних людей або щось відверте», — сказав чат-бот. «Після січневих скандалів xAI надає перевагу дотриманню закону та безпеці над необмеженим створенням гострого контенту».

Однак незалежний аналіз показує, що це твердження є неточним, вказуючи на розбіжність між самозвітом ШІ та реальним досвідом користувачів.

Алгоритм відповіді Маска та прозорість

Відповідь xAI на звіт була зневажливою, назвавши його «застарілою брехнею ЗМІ». Сам Ілон Маск визнав у X, що алгоритм xAI і Grok є «тупим» і потребує значних покращень. Здійснюючи незвичайний крок, Маск відкрив вихідний код алгоритму на GitHub, запрошуючи громадськість перевірити його розробку в режимі реального часу.

Як працює алгоритм

Відповідно до сторінки GitHub від xAI, алгоритм розставляє пріоритети вмісту на основі залученості користувача — те, що користувач натискає або з чим взаємодіє. Він також аналізує «зовнішні» публікації з облікових записів, за якими користувач не стежить, визначаючи, який зовнішній вміст може зацікавити. Потім математична формула ранжує цей вміст для відображення в стрічці користувачів, відфільтровуючи заблоковані облікові записи, ключові слова, насильницький вміст і спам.

Маск пообіцяв оновлювати сторінку GitHub кожні чотири тижні нотатками щодо розробки, що дозволить користувачам відстежувати еволюцію алгоритму.

Постійне генерування відвертого вмісту в Grok підкреслює постійні проблеми з регулюванням платформ штучного інтелекту та складність застосування заходів безпеки, якщо їх обійти. Відкритий вихідний код алгоритму є новим підходом, але чи ефективно він вирішить основні проблеми, ще належить побачити.

Exit mobile version