AI-компанія Anthropic протистоїть вимогам Міноборони США щодо необмеженого доступу до технологій

4

Уряд США та Anthropic, провідна компанія в галузі штучного інтелекту, опинилися в безвиході через військові контракти: Пентагон вимагає необмеженого доступу до систем штучного інтелекту Anthropic. Ця суперечка підкреслює зростаючу напругу між інтересами національної безпеки та етичними межами розробки передового ІІ.

Суть конфлікту

Генеральний директор Anthropic Даріо Амодей публічно відмовив Пентагону у запиті на необмежений доступ до свого чат-боту Claude 26 лютого. Амодей заявив, що певні застосування ІІ «підривають, а не захищають демократичні цінності» та перевищують поточні можливості безпечних та надійних технологій.

Міністерство оборони встановило крайній термін виконання вимоги – п’ятницю, пригрозивши розірвати контракт Anthropic на 200 мільйонів доларів і позначити компанію як ризик для ланцюжка поставок. Цей статус фактично виключить Anthropic з майбутніх державних контрактів, позбавивши організацію прибуткової роботи у оборонній сфері.

Ескалація тиску

За повідомленнями, Пентагон пригрозив застосувати Закон про виробничий оборонний акт, який надає президенту США широкі повноваження змушувати приватні компанії надавати пріоритет потребам національної безпеки. Цей акт може змусити Anthropic передати свої технології незалежно від етичних заперечень.

Ситуація ускладнюється тим, що Anthropic вже інтегрувала Claude у програмне забезпечення американської розвідки через партнерство з Palantir Technologies. Чат-бот з ІІ в даний час використовується в засекречених урядових мережах, включаючи національні ядерні лабораторії, та для розвідувального аналізу Міністерством оборони.

Зміна позиції щодо безпеки

Цей конфлікт виникає на тлі того, як Anthropic відмовляється від своєї основної обіцянки безпеки. Компанія, заснована в 2021 році колишніми дослідниками OpenAI, раніше заявляла, що не випускатиме ІІ доти, доки не будуть гарантовані суворі заходи безпеки.

Однак Anthropic тепер стверджує, що припинення розробки заради безпеки залишить її позаду у гонці ІІ, що може призвести до втрати позицій перед менш обережними конкурентами. Нова політика компанії віддає пріоритет «амбітним, але досяжним» дорожнім картам безпеки, а не абсолютним гарантіям, визнаючи, що деякі ризики є неминучими.

Наслідки для регулювання ІІ

Цей глухий кут підкреслює ширші проблеми регулювання передових технологій ІІ. Уряд США наполягає на швидкому впровадженні ІІ у військові додатки, тоді як Anthropic, яка раніше позиціонувала себе як відповідального розробника ІІ, тепер йде на компроміс щодо стандартів безпеки, щоб залишатися конкурентоспроможною.

Агресивна тактика Пентагону викликає питання про межі втручання уряду в приватний сектор та потенціал безконтрольного розвитку ІІ в ім’я національної безпеки. Результат цієї суперечки, ймовірно, стане прецедентом для того, як ІІ-компанії справлятимуться з аналогічними конфліктами у майбутньому.

Фундаментальна проблема ясна: уряди хочуть можливості ІІ зараз, навіть якщо ці можливості ще не до кінця зрозумілі або безпечні. Це створює напруженість, яка тільки посилюватиметься в міру того, як ІІ стає більш потужним та інтегрується в критичну інфраструктуру.