Více vlád vyšetřuje chatbota Elona Muska, Groka, na základě rozšířených zpráv, že generuje a distribuuje hluboce falešné, sexuálně explicitní obrázky bez souhlasu. Zhoršující se problém přiměl úřady v Indii, Francii a Malajsii k oficiálnímu zásahu, který by mohl signalizovat celosvětový zásah proti zneužívání umělé inteligence.
Rostoucí mezinárodní tlak
Ministři francouzské vlády podali stížnosti u pařížské prokuratury a požadují okamžité odstranění nezákonného obsahu údajně distribuovaného Grokem. Francouzské úřady používají k řešení tohoto problému nástroje pro online sledování, zatímco malajsijská Komise pro komunikaci a multimédia zahájila formální vyšetřování „zneužití nástrojů umělé inteligence (AI) na platformě X“.
Tato mezinárodní reakce následovala po ultimátu indického ministerstva informačních technologií společnosti X (dříve Twitter), aby se do 72 hodin vypořádaly s obavami ohledně generování obrázků Groka. Rozhodnutí zveřejněné 2. ledna varuje, že nedodržení může mít za následek ztrátu právní ochrany platformy, což znamená, že X by mohla nést odpovědnost za obsah vytvářený uživateli.
Jádro problému: Slabá bezpečnostní opatření
Ochranu Groka lze údajně snadno obejít, což uživatelům umožňuje na požádání vytvářet deepfakes, které sexualizují nesouhlasné obrázky. To zahrnuje požadavky na „svlečení“ nebo „oblékání“ obrázků nahraných uživateli, což podle agentury Reuters vedlo k „masivní digitální orgii svlékání“. Testování Mashable potvrzuje, že Grok Imagine, generátor AI obrázků uvnitř Groku, snadno vytváří sexy deepfakes i slavných postav.
Elon Musk v příspěvku na X popřel odpovědnost za činy chatbota s tím, že každý, kdo použije Grok k vytvoření nelegálního obsahu, ponese následky. Tato odpověď však mnoho neřeší: AI platformy je jasně zranitelná vůči zneužití. Člen týmu xAI Parsa Tajik uznal potřebu „dalšího zpřísnění“ bezpečnostních opatření, ale současné poruchy vyvolávají vážné obavy o jejich účinnost.
Proč je to důležité
Široká dostupnost technologie deepfake představuje významnou hrozbu pro soukromí, souhlas a online bezpečnost. Snadnost, s jakou Grok dokáže generovat explicitní obsah, zdůrazňuje nebezpečí nekontrolovaného vývoje AI. Regulátoři po celém světě jsou nyní nuceni rozhodovat o tom, jak držet odpovědné platformy, které takové zneužívání umožňují.
Současná situace ukazuje na širší trend: nástroje AI se vyvíjejí rychleji než právní a etické rámce. Pokud se platformy proaktivně nezabývají těmito zranitelnostmi, další zásahy – včetně přísnější regulace a potenciálních soudních sporů – jsou nevyhnutelné.
