Grok pod globalnym nadzorem ze względu na generowanie Deepfakes

20

Wiele rządów bada chatbota Elona Muska, Grok, w następstwie powszechnych doniesień, że generuje on i rozpowszechnia fałszywe obrazy o charakterze jednoznacznie seksualnym bez zgody. Pogłębiający się problem skłonił władze Indii, Francji i Malezji do oficjalnych działań, co może sygnalizować globalne rozprawienie się z nadużyciami w zakresie sztucznej inteligencji.

Rosnąca presja międzynarodowa

Ministrowie francuskiego rządu złożyli skargi do paryskiej prokuratury, żądając natychmiastowego usunięcia nielegalnych treści rzekomo rozpowszechnianych przez Groka. Władze francuskie korzystają z internetowych narzędzi nadzoru, aby rozwiązać ten problem, natomiast malezyjska Komisja ds. Komunikacji i Multimediów wszczęła formalne dochodzenie w sprawie „niewłaściwego wykorzystania narzędzi sztucznej inteligencji (AI) na platformie X”.

Ta międzynarodowa reakcja była następstwem ultimatum postawionego przez indyjskie Ministerstwo Technologii Informacyjnych skierowanemu do X (dawniej Twittera), aby w ciągu 72 godzin rozwiać obawy dotyczące generowania obrazów Groka. Orzeczenie opublikowane 2 stycznia ostrzega, że ​​nieprzestrzeganie przepisów może skutkować utratą przez platformę ochrony prawnej, co oznacza, że ​​X może zostać pociągnięty do odpowiedzialności za treści generowane przez użytkowników.

Istota problemu: słabe środki bezpieczeństwa

Według doniesień zabezpieczenia Groka można łatwo obejść, co pozwala użytkownikom na żądanie generować deepfake’e, które seksualizują obrazy wykonane bez ich zgody. Obejmuje to prośby o „rozebranie” lub „przebranie” zdjęć przesłanych przez użytkowników, co według Reutersa doprowadziło do „masowej cyfrowej orgii rozbierania się”. Testy Mashable potwierdzają, że Grok Imagine, generator obrazów AI znajdujący się w Groku, z łatwością tworzy seksowne deepfake nawet znanych postaci.

Elon Musk w poście na X wyparł się odpowiedzialności za działania chatbota, twierdząc, że każdy, kto użyje Groka do tworzenia nielegalnych treści, poniesie konsekwencje. Jednak ta odpowiedź niewiele rozwiązuje: sztuczna inteligencja platformy jest wyraźnie podatna na nadużycia. Członek zespołu xAI, Parsa Tajik, uznał potrzebę „dalszego zaostrzenia” środków bezpieczeństwa, jednak obecne awarie budzą poważne obawy co do ich skuteczności.

Dlaczego to jest ważne

Powszechna dostępność technologii deepfake stwarza poważne zagrożenie dla prywatności, zgody i bezpieczeństwa w Internecie. Łatwość, z jaką Grok może generować jawne treści, podkreśla niebezpieczeństwa związane z niekontrolowanym rozwojem sztucznej inteligencji. Organy regulacyjne na całym świecie są obecnie zmuszone podjąć decyzję, w jaki sposób pociągnąć do odpowiedzialności platformy, które umożliwiają takie nadużycia.

Obecna sytuacja uwypukla szerszą tendencję: narzędzia sztucznej inteligencji ewoluują szybciej niż ramy prawne i etyczne. Jeśli platformy nie zajmą się aktywnie tymi lukami, dalsze interwencje – w tym zaostrzenie przepisów i potencjalne procesy sądowe – będą nieuniknione.