Коротко
- Федеральний суддя заблокував Пентагон від маркування Anthropic як ризику ланцюга постачання, визнавши, що цей крок, ймовірно, порушив права компанії на Першу поправку та належну правову процедуру.
- Суперечка виникла через контракт Міністерства оборони на суму 200 мільйонів доларів США з ШІ, який провалився після того, як Anthropic відмовилася дозволити використання своєї моделі для масового спостереження або летальної автономної війни.
- Рішення тимчасово відновлює статус Anthropic серед федеральних підрядників і може вплинути на те, як компанії зі штучного інтелекту встановлюють обмеження використання в урядових угодах.
Федеральний суддя заблокував Пентагон від маркування Anthropic як ризику ланцюга постачання, постановивши в четвер, що кампанія уряду проти компанії зі штучного інтелекту порушила її права на Першу поправку та належну правову процедуру.
Окружний суддя США Ріта Лін видала попередню заборону від Північного округу Каліфорнії через два дні після заслуховування усних аргументів з обох сторін у справі, яку спостерігачі називають неминучою через власні документи уряду.
«Ніщо в чинному статуті не підтримує орвеллівську концепцію, що американська компанія може бути заклеймована як потенційний противник і саботажник США за висловлення незгоди з урядом», — написала суддя Лін.
Внутрішні записи стали фатальними для справи уряду, за словами Ендрю Россоу, адвоката з питань зв'язків з громадськістю та генерального директора AR Media Consulting, який сказав Decrypt, що призначення було «викликане поведінкою преси, а не аналізом безпеки».
«Уряд по суті записав свій власний мотив, і це було помстою», — сказав Россоу.
Суперечка стосується дворічного контракту на 200 мільйонів доларів, присудженого Anthropic у липні 2025 року Головним цифровим офісом та офісом штучного інтелекту Міністерства оборони.
Переговори щодо розгортання Claude на платформі GenAI.Mil міністерства зірвалися після того, як обидві сторони не змогли домовитися про обмеження використання.
Anthropic наполягала на двох умовах: щоб Claude не використовувалася для масового спостереження за американцями або для летального використання в автономній війні, стверджуючи, що модель ще не була безпечною для жодної з цих цілей.
На зустрічі 24 лютого міністр оборони Піт Хегсет повідомив представникам Anthropic, що якщо компанія не скасує свої обмеження до 27 лютого, міністерство негайно призначить її ризиком ланцюга постачання.
Anthropic відмовилася виконувати вимоги.
Того ж дня президент Трамп опублікував директиву в Truth Social, наказуючи кожному федеральному агентству «негайно припинити» використання технології компанії, назвавши Anthropic «радикально лівою, woke-компанією».
Трохи більше ніж через годину Хегсет описав позицію Anthropic як «майстер-клас з зарозумілості та зради», наказуючи, щоб жоден підрядник, який веде справи з військовими, не міг здійснювати комерційну діяльність з компанією. Офіційне призначення ризику ланцюга постачання супроводжувалося листом 3 березня.
Anthropic подала позов до уряду 9 березня, стверджуючи про порушення Першої поправки, належної правової процедури та Закону про адміністративну процедуру.
«Покарання Anthropic за привернення громадської уваги до контрактної позиції уряду є класичною незаконною помстою за Першу поправку», — написала суддя Лін у постанові в четвер.
Постанова, яка була призупинена на сім днів, блокує всі три урядові дії, вимагає звіту про дотримання до 6 квітня і відновлює статус-кво до подій 27 лютого.
Зброєтворення закону
Призначення «ризиком ланцюга постачання» історично резервувалося для іноземних розвідувальних агентств, терористів та інших ворожих акторів.
Це ніколи не застосовувалося до вітчизняної компанії до Anthropic. Оборонні підрядники почали оцінювати і в багатьох випадках припиняти свою залежність від Anthropic у наступні тижні, зазначила постанова судді Лін.
І позиціонування уряду може мати непередбачені наслідки, стверджують експерти.
Дійсно, рішення в четвер може підштовхнути компанії зі штучного інтелекту «до формалізації етичних обмежень під час роботи з урядами», сказала Decrypt Пічапен Пратіпаваніч, стратег з політики та засновник інфраструктурної фірми Gather Beyond.
Певною мірою рішення також припускає, що компанії «можуть встановлювати чіткі обмеження використання, не запускаючи автоматично каральні регуляторні дії», сказала вона.
Але це «не усуває напруження», додала вона. Те, що обмежує рішення, — це «здатність ескалувати цю незгоду до ширшого виключення або маркування, яке виглядає як помста».
Тим не менш, застосування нинішніх статутних повноважень для призначення компанії ризиком ланцюга постачання «через те, що вона відмовилася усунути захисні обмеження», не є розширенням статуту про ризик ланцюга постачання, пояснив Россоу. Натомість це діє як «зброєтворення» закону.
«Це частина постійної моделі поведінки Білого дому, коли вони стикаються з викликами, що призводить до непропорційних, емоційно керованих та упереджених загроз і урядового вимагання», — додав він.
Якщо «теорія» уряду буде прийнята, це створить «небезпечний» прецедент, за якого компанії зі штучного інтелекту можуть бути внесені до чорного списку за політику безпеки, яка не подобається уряду, «до того, як станеться будь-яка шкода», без належної правової процедури, під прапором національної безпеки, сказав Россоу.
Щоденний брифінг розсилка
Починайте кожен день з найактуальніших новин прямо зараз, а також оригінальних матеріалів, подкастів, відео та багато іншого.
Джерело: https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat

