Niedawne działania rządu USA przeciwko firmie Anthropic, wiodącemu twórcy sztucznej inteligencji, mają mniej wspólnego z bezpieczeństwem narodowym, a bardziej z celową próbą zdławienia firmy, której poglądy polityczne nie pokrywają się z obecną administracją. Sytuacja zaostrzyła się do tego stopnia, że rząd zagroził powołaniem się na ustawę o obronności przemysłowej nie po to, aby zapewnić możliwości sztucznej inteligencji, ale aby ukarać Anthropic i stworzyć precedens dla innych prywatnych firm zajmujących się sztuczną inteligencją.
Rosnące obawy dotyczące zarządzania sztuczną inteligencją
Sedno problemu polega na tym, że w miarę rozwoju sztucznej inteligencji nieuchronnie będzie ona kontrolować większą część społeczeństwa. Ta zmiana rodzi ważne pytania o to, kto kontroluje te systemy i jaki mają one związek z różnymi ideologiami politycznymi. Szybkie rozbieżności między administracjami USA oznaczają, że mało prawdopodobne jest stworzenie jednego, powszechnie „spójnego” modelu sztucznej inteligencji, co jeszcze bardziej komplikuje zarządzanie.
Zasady pierwszej poprawki zagrożone
Działania rządu przeciwko Anthropic budzą obawy związane z Pierwszą Poprawką. Zasada jest prosta: rządy nie powinny narzucać zgodności ze sztuczną inteligencją, ponieważ ograniczy to innowacje i wolność słowa. Podmioty prywatne, w tym twórcy sztucznej inteligencji, muszą zdefiniować własne wartości, nawet jeśli są one sprzeczne z celami politycznymi.
Polityczne motywy nacisków
Nacisk na Anthropic ma korzenie polityczne. Urzędnicy administracji Trumpa, w tym Elon Musk, głośno krytykują firmę, nazywając ją organizacją „radykalnie lewicową przebudzoną”. Krytyka ta dotyczy nie tylko zagrożeń dla łańcucha dostaw, ale także zapewnienia zgodności systemów sztucznej inteligencji z ich preferencjami politycznymi.
Groźba eliminacji politycznej
Jeśli groźby rządu dotyczące zniszczenia Anthropic zostaną zrealizowane, stanie się to formą politycznej eliminacji. W tym posunięciu chodzi nie tylko o bezpieczeństwo narodowe, ale także o wyeliminowanie konkurenta, którego wartości są uważane za wrogie. Stwarza to niebezpieczny precedens, w ramach którego firmy zajmujące się sztuczną inteligencją są karane za swoje przekonania polityczne, a nie za rzeczywiste ryzyko dla bezpieczeństwa.
Podsumowując, działania Pentagonu przeciwko Anthropic są wyraźnym przykładem ingerencji politycznej w branżę AI. Posunięcie to w mniejszym stopniu dotyczy ochrony interesu narodowego, a bardziej ukarania firmy, której wartości są sprzeczne z wartościami obecnej administracji, rodząc poważne pytania o przyszłość zarządzania sztuczną inteligencją.
