Firma AI Anthropic sprzeciwia się żądaniom Departamentu Obrony USA dotyczącym nieograniczonego dostępu do technologii

22
Firma AI Anthropic sprzeciwia się żądaniom Departamentu Obrony USA dotyczącym nieograniczonego dostępu do technologii

Rząd USA i Anthropic, wiodąca firma zajmująca się sztuczną inteligencją, znajdują się w impasie w sprawie kontraktów wojskowych, a Pentagon żąda nieograniczonego dostępu do systemów sztucznej inteligencji Anthropic. Spór uwydatnia rosnące napięcie pomiędzy interesami bezpieczeństwa narodowego a etycznymi granicami rozwoju zaawansowanej sztucznej inteligencji.

Istota konfliktu

26 lutego dyrektor generalny firmy Anthropic, Dario Amodei, publicznie odrzucił prośbę Pentagonu o nieograniczony dostęp do chatbota Claude. Amodei stwierdził, że niektóre zastosowania sztucznej inteligencji „raczej podważają niż chronią wartości demokratyczne” i przekraczają obecne możliwości bezpiecznych technologii.

Departament Obrony wyznaczył piątkowy termin na dostosowanie się, grożąc rozwiązaniem kontraktu Anthropic o wartości 200 milionów dolarów i uznaniem firmy za „ryzyko łańcucha dostaw”. Status ten skutecznie wykluczyłby Anthropic z przyszłych kontraktów rządowych, pozbawiając firmę lukratywnych prac obronnych.

Eskalacja ciśnienia

Według doniesień Pentagon zagroził powołaniem się na ustawę o produkcji obronnej, która daje prezydentowi USA szerokie uprawnienia do zmuszania prywatnych firm do priorytetowego traktowania potrzeb bezpieczeństwa narodowego. Akt ten mógłby zmusić Anthropic do przekazania swojej technologii, niezależnie od zastrzeżeń etycznych.

Sprawę komplikuje fakt, że firma Anthropic zintegrowała już Claude z oprogramowaniem wywiadu USA w ramach partnerstwa z Palantir Technologies. Chatbot AI jest obecnie używany w tajnych sieciach rządowych, w tym w Narodowych Laboratoriach Jądrowych oraz do analiz wywiadowczych przez Departament Obrony.

Zmiana stanowiska w sprawie bezpieczeństwa

Konflikt ten pojawia się, gdy Anthropic porzuca swoją podstawową obietnicę bezpieczeństwa. Firma, założona w 2021 roku przez byłych badaczy OpenAI, zapowiadała wcześniej, że nie wypuści sztucznej inteligencji, dopóki nie zostaną zapewnione rygorystyczne środki bezpieczeństwa.

Jednak Anthropic argumentuje obecnie, że wstrzymanie rozwoju ze względów bezpieczeństwa pozostawi ją w tyle w wyścigu AI, potencjalnie tracąc pozycję na rzecz mniej ostrożnych konkurentów. Nowa polityka firmy przedkłada „ambitne, ale wykonalne” plany działania w zakresie bezpieczeństwa nad absolutne gwarancje, uznając, że niektórych zagrożeń nie da się uniknąć.

Konsekwencje dla regulacji AI

Ten impas podkreśla szersze wyzwania związane z regulacją zaawansowanych technologii sztucznej inteligencji. Rząd Stanów Zjednoczonych nalega na szybkie przyjęcie sztucznej inteligencji do zastosowań wojskowych, natomiast firma Anthropic, która wcześniej pozycjonowała się jako odpowiedzialny twórca sztucznej inteligencji, obecnie rezygnuje z standardów bezpieczeństwa, aby zachować konkurencyjność.

Agresywna taktyka Pentagonu rodzi pytania o granice interwencji rządu w sektorze prywatnym i potencjał niekontrolowanego rozwoju sztucznej inteligencji w imię bezpieczeństwa narodowego. Wynik tego sporu prawdopodobnie ustanowi precedens dla sposobu, w jaki firmy AI będą radzić sobie z podobnymi konfliktami w przyszłości.

Zasadniczy problem jest jasny: rządy chcą możliwości sztucznej inteligencji teraz, nawet jeśli możliwości te nie są jeszcze w pełni poznane i bezpieczne. Stwarza to napięcia, które będą się tylko nasilać, w miarę jak sztuczna inteligencja stanie się potężniejsza i zintegrowana z infrastrukturą krytyczną.