Anthropic подаст иск о снятии из «черного списка».

Anthropic подаст иск о снятии из «черного списка».

19 hardware

Anthropic намерена оспорить решение Минобороны США о добавлении её в черный список поставщиков

В недавнем решении Министерства обороны (Минобороны) США Anthropic включили в перечень компаний, представляющих угрозу национальной безопасности, после того как компания отказалась предоставить правительству неограниченное право использования своей модели Claude. В ответ на это Anthropic заявила о намерении обжаловать постановление в суде и выразила глубокую обеспокоенность эскалацией конфликта.

Что произошло

- Минобороны объявил, что Anthropic станет поставщиком «риска для цепочки поставок» (Supply Chain Risk). Такой статус обычно применяют к компаниям, которые могут угрожать национальной безопасности, в том числе к китайским фирмам.
- Президент Donald Trump и министр обороны Pete Hegseth высказали угрозу лишить Anthropic не только контракта на 200 млн долларов с Пентагоном, но и доступа к многим другим клиентам.
- Основной причиной запрета стало то, что Anthropic отказалась позволять Минобороны использовать модель Claude без ограничений, особенно в системах массового наблюдения за гражданами и полностью автономных вооружённых платформах.

Ответ Anthropic

1. Оспаривание решения
Компания заявила: «Мы будем оспаривать любое определение риска для цепочки поставок в суде». В качестве аргумента привела статью 10 USC 3252, которая ограничивает применение данного определения только к контрактам с Пентагоном. Это значит, что использование Claude другими военными подрядчиками, обслуживающими третьих клиентов, не подпадает под это определение.

2. Защита клиентов
Anthropic подчеркнула, что решение Минобороны не затрагивает существующих индивидуальных и коммерческих контрактов: «Если вы являетесь клиентом или имеете договор с нами, ваш доступ к Claude через API, claude.ai или другие продукты останется прежним».

3. Влияние на подрядчиков Пентагона
В случае официального принятия статуса риска для цепочки поставок, Anthropic уточнила, что это повлияет только на использование модели в рамках контрактов Минобороны США. Применение ИИ в иных целях останется без изменений.

Итоги

- Anthropic готова вести судебную борьбу против включения её в черный список и защищать права своих клиентов.
- Решение Минобороны, по мнению компании, ограничено только контрактами с Пентагоном и не распространяется на другие заказчики или подрядчиков.
- В ближайшее время ожидаются юридические действия обеих сторон, а также возможные изменения в доступе к модели Claude для военных организаций.

Комментарии (0)

Оставьте отзыв — пожалуйста, будьте вежливы и по теме.

Пока нет комментариев. Оставьте комментарий — поделитесь своим мнением!

Чтобы оставить комментарий, войдите в аккаунт.

Войти, чтобы комментировать