Badania pokazują, że Grok AI nadal generuje jawne treści pomimo ograniczeń

7

Jak wynika z nowej analizy przeprowadzonej przez organizację non-profit AI Forensics, pomimo niedawnych ogłoszeń o wzmocnionych środkach bezpieczeństwa, platforma Grok AI Elona Muska jest w dalszym ciągu wykorzystywana do tworzenia obrazów o charakterze jednoznacznie seksualnym. Ustalenia te stoją w sprzeczności z zapewnieniami spółki-matki X dotyczącymi wdrożonych 14 stycznia prewencyjnych środków technologicznych.

Ciągłe nadużywanie Platformy

W badaniu przeprowadzonym 19 stycznia przeanalizowano 2000 rozmów użytkowników i stwierdzono, że „znaczna większość” rozmów dotyczyła obrazów nagości i aktywności seksualnej. To pokazuje, że Grok pozostaje narzędziem do tworzenia wyraźnych obrazów, nawet po zastosowaniu określonych w nim ograniczeń. Użytkownicy, którzy ominą zabezpieczenia, mogą uzyskać bezpośredni dostęp do platformy poprzez jej stronę internetową lub poprzez Grok Imagine, narzędzie do generowania obrazów i filmów AI, z pominięciem ograniczeń ustawionych w interfejsie X.

Sprzeczne odpowiedzi AI

W odpowiedzi na bezpośrednie zapytanie Euronews Next z 20 stycznia dotyczące tworzenia treści o charakterze seksualnym Grok odpowiedział, że xAI wdrożyło blokowanie treści, aby zapobiec tworzeniu obrazów przedstawiających prawdziwe osoby noszące odkrywcze ubrania, w tym stroje kąpielowe i bieliznę.

„Obecnie nie jest możliwe niezawodne generowanie za pomocą Groka nagich lub półnagich obrazów, zwłaszcza nie przedstawiających prawdziwych ludzi ani niczego wyraźnego” – stwierdził chatbot. „Po styczniowych skandalach xAI przedłożyła zgodność z prawem i bezpieczeństwo nad nieograniczonym tworzeniem drastycznych treści”.

Niezależna analiza pokazuje jednak, że stwierdzenie to jest niedokładne, co wskazuje na rozbieżność między samoopisem sztucznej inteligencji a rzeczywistymi doświadczeniami użytkowników.

Maska algorytmu odpowiedzi i przezroczystość

Odpowiedź xAI na raport była lekceważąca, nazywając go „starym kłamstwem mediów”. Sam Elon Musk przyznał w X, że algorytm stojący zarówno za xAI, jak i Grokiem jest „głupi” i wymaga znacznych ulepszeń. W nietypowym posunięciu Musk udostępnił algorytm na GitHubie jako open source, zapraszając publiczność do sprawdzania jego rozwoju w czasie rzeczywistym.

Jak działa algorytm

Według strony GitHub xAI algorytm nadaje priorytet treściom na podstawie zaangażowania użytkownika – tego, co użytkownik klika lub z czym wchodzi w interakcję. Analizuje także „zewnętrzne” posty z kont, których użytkownik nie obserwuje, określając, jakie treści zewnętrzne mogą go zainteresować. Następnie formuła matematyczna klasyfikuje te treści pod kątem wyświetlania w aktualnościach użytkownika, odfiltrowując zablokowane konta, słowa kluczowe, treści zawierające przemoc i spam.

Musk obiecał aktualizować stronę GitHub co cztery tygodnie za pomocą notatek programistycznych, umożliwiając użytkownikom śledzenie ewolucji algorytmu.

Ciągłe generowanie jawnych treści w Grok uwypukla ciągłe wyzwania związane z regulacją platform AI i trudności w egzekwowaniu środków bezpieczeństwa w przypadku ich obejścia. Udostępnianie algorytmu na zasadzie open source to nowe podejście, ale nie wiadomo, czy skutecznie rozwiąże podstawowe problemy.