додому Последние новости и статьи AI-компания Anthropic противостоит требованиям Минобороны США в отношении неограниченного доступа к технологиям

AI-компания Anthropic противостоит требованиям Минобороны США в отношении неограниченного доступа к технологиям

AI-компания Anthropic противостоит требованиям Минобороны США в отношении неограниченного доступа к технологиям

Правительство США и Anthropic, ведущая компания в области искусственного интеллекта, оказались в тупике из-за военных контрактов: Пентагон требует неограниченного доступа к системам искусственного интеллекта Anthropic. Этот спор подчеркивает растущее напряжение между интересами национальной безопасности и этическими границами разработки передового ИИ.

Суть конфликта

Генеральный директор Anthropic Дарио Амодей публично отказал Пентагону в запросе на неограниченный доступ к своему чат-боту Claude 26 февраля. Амодей заявил, что определенные применения ИИ «подрывают, а не защищают демократические ценности» и превышают текущие возможности безопасных и надежных технологий.

Министерство обороны установило крайний срок выполнения требования – пятницу, пригрозив разорвать контракт Anthropic на 200 миллионов долларов и обозначить компанию как «риск для цепочки поставок». Этот статус фактически исключит Anthropic из будущих государственных контрактов, лишив компанию прибыльной работы в оборонной сфере.

Эскалация давления

По сообщениям, Пентагон пригрозил применить Закон о производственном оборонном акте, предоставляющий президенту США широкие полномочия заставлять частные компании отдавать приоритет потребностям национальной безопасности. Этот акт может заставить Anthropic передать свои технологии, независимо от этических возражений.

Ситуация усложняется тем фактом, что Anthropic уже интегрировала Claude в программное обеспечение американской разведки через партнерство с Palantir Technologies. Чат-бот с ИИ в настоящее время используется в засекреченных правительственных сетях, включая национальные ядерные лаборатории, и для разведывательного анализа Министерством обороны.

Изменение позиции в отношении безопасности

Этот конфликт возникает на фоне того, как Anthropic отказывается от своего основополагающего обещания безопасности. Компания, основанная в 2021 году бывшими исследователями OpenAI, ранее заявляла, что не будет выпускать ИИ до тех пор, пока не будут гарантированы строгие меры безопасности.

Однако Anthropic теперь утверждает, что приостановка разработки ради безопасности оставит ее позади в гонке ИИ, что может привести к потере позиций перед менее осторожными конкурентами. Новая политика компании отдает приоритет «амбициозным, но достижимым» дорожным картам безопасности, а не абсолютным гарантиям, признавая, что некоторые риски неизбежны.

Последствия для регулирования ИИ

Этот тупик подчеркивает более широкие проблемы регулирования передовых технологий ИИ. Правительство США настаивает на быстром внедрении ИИ в военные приложения, в то время как Anthropic, ранее позиционировавшая себя как ответственного разработчика ИИ, теперь идет на компромисс в отношении стандартов безопасности, чтобы оставаться конкурентоспособной.

Агрессивная тактика Пентагона вызывает вопросы о пределах вмешательства правительства в частный сектор и потенциале бесконтрольного развития ИИ во имя национальной безопасности. Исход этого спора, вероятно, станет прецедентом для того, как ИИ-компании будут справляться с аналогичными конфликтами в будущем.

Фундаментальная проблема ясна: правительства хотят возможности ИИ сейчас, даже если эти возможности еще не до конца поняты или безопасны. Это создает напряженность, которая будет только усиливаться по мере того, как ИИ становится более мощным и интегрируется в критическую инфраструктуру.

Exit mobile version