Společnost AI Anthropic se staví proti požadavkům amerického ministerstva obrany na neomezený přístup k technologiím

8

Americká vláda a Anthropic, přední společnost zabývající se umělou inteligencí, jsou ve slepé uličce ohledně vojenských kontraktů, přičemž Pentagon požaduje neomezený přístup k systémům umělé inteligence Anthropic. Spor zdůrazňuje rostoucí napětí mezi zájmy národní bezpečnosti a etickými hranicemi rozvoje pokročilé umělé inteligence.

Podstata konfliktu

Generální ředitel společnosti Anthropic Dario Amodei 26. února veřejně odmítl žádost Pentagonu o neomezený přístup k jeho chatbotovi Claude. Amodei řekl, že některé aplikace umělé inteligence „spíše podkopávají než chrání demokratické hodnoty“ a překračují současné možnosti bezpečných technologií.

Ministerstvo obrany stanovilo páteční termín pro splnění požadavků a pohrozilo ukončením kontraktu Anthropic ve výši 200 milionů dolarů a označení společnosti za „riziko dodavatelského řetězce“. Tento status by fakticky vyloučil Anthropic z budoucích vládních zakázek, čímž by společnost připravil o lukrativní obranné práce.

Eskalace tlaku

Pentagon údajně pohrozil uplatněním zákona o výrobě obrany, který dává americkému prezidentovi široké pravomoci donutit soukromé společnosti, aby upřednostňovaly potřeby národní bezpečnosti. Tento akt by mohl přinutit Anthropic předat svou technologii bez ohledu na etické námitky.

Věci komplikuje skutečnost, že Anthropic již integroval Clauda do amerického zpravodajského softwaru prostřednictvím partnerství s Palantir Technologies. AI ​​chatbot se v současné době používá v tajných vládních sítích, včetně Národních jaderných laboratoří, a pro zpravodajskou analýzu ze strany ministerstva obrany.

Změna polohy na bezpečnost

Tento konflikt přichází ve chvíli, kdy se Anthropic vzdává svého zakládajícího příslibu bezpečí. Společnost založená v roce 2021 bývalými výzkumníky OpenAI již dříve uvedla, že neuvolní AI, dokud nebudou zaručena přísná bezpečnostní opatření.

Společnost Anthropic však nyní tvrdí, že pozastavení vývoje z bezpečnostních důvodů ji zanechá v závodě AI a potenciálně ztratí půdu ve prospěch méně opatrných konkurentů. Nová politika společnosti upřednostňuje „ambiciózní, ale dosažitelné“ bezpečnostní plány před absolutními zárukami, přičemž uznává, že některá rizika jsou nevyhnutelná.

Důsledky pro regulaci AI

Tato slepá ulička podtrhuje širší výzvy regulace pokročilých technologií umělé inteligence. Americká vláda prosazuje rychlé přijetí umělé inteligence ve vojenských aplikacích, zatímco společnost Anthropic, která se dříve stavěla jako odpovědný vývojář umělé inteligence, nyní činí kompromisy v oblasti bezpečnostních standardů, aby zůstala konkurenceschopná.

Agresivní taktika Pentagonu vyvolává otázky ohledně limitů vládních intervencí v soukromém sektoru a potenciálu nekontrolovaného rozvoje AI ve jménu národní bezpečnosti. Výsledek tohoto sporu pravděpodobně vytvoří precedens pro to, jak budou společnosti AI řešit podobné konflikty v budoucnu.

Základní problém je jasný: vlády chtějí schopnosti umělé inteligence teď, i když tyto schopnosti ještě nejsou plně pochopeny nebo zajištěny. To vytváří napětí, které se jen zesílí, až bude AI výkonnější a integrovaná do kritické infrastruktury.