به طور خلاصه
- یک قاضی فدرال پنتاگون را از برچسب زدن Anthropic به عنوان یک ریسک زنجیره تامین منع کرد و دریافت که این اقدام احتمالاً حقوق متمم اول و فرآیند قانونی شرکت را نقض کرده است.
- این اختلاف از یک قرارداد 200 میلیون دلاری AI Agent وزارت دفاع ناشی شد که پس از آنکه Anthropic از اجازه دادن به استفاده از مدل خود برای نظارت گسترده یا جنگ خودکار کشنده خودداری کرد، منحل شد.
- این حکم به طور موقت جایگاه Anthropic را با پیمانکاران فدرال بازیابی میکند و میتواند نحوه تعیین محدودیتهای استفاده توسط شرکتهای AI Agent در معاملات دولتی را شکل دهد.
یک قاضی فدرال پنتاگون را از برچسب زدن Anthropic به عنوان یک ریسک زنجیره تامین منع کرد و روز پنجشنبه حکم داد که کمپین دولت علیه این شرکت AI Agent حقوق متمم اول و فرآیند قانونی آن را نقض کرده است.
قاضی دادگاه منطقهای ایالات متحده، ریتا لین، یک دستور موقت از ناحیه شمالی کالیفرنیا دو روز پس از استماع استدلالهای شفاهی از هر دو طرف صادر کرد، در موردی که ناظران میگویند توسط مدارک خود دولت اجتنابناپذیر شده بود.
"هیچ چیز در قانون حاکم از مفهوم اورولی حمایت نمیکند که یک شرکت آمریکایی ممکن است به عنوان یک دشمن بالقوه و خرابکار ایالات متحده برچسبگذاری شود، فقط به دلیل ابراز مخالفت با دولت،" قاضی لین نوشت.
سوابق داخلی برای پرونده دولت کشنده بود، به گفته اندرو روسو، وکیل امور عمومی و مدیرعامل AR Media Consulting، که به Decrypt گفت که این تعیین "توسط رفتار مطبوعاتی، نه تحلیل امنیتی، ایجاد شده بود."
"دولت اساساً انگیزه خود را نوشت، و آن تلافی بود،" روسو گفت.
این اختلاف بر سر یک قرارداد دو ساله 200 میلیون دلاری متمرکز است که در ژوئیه 2025 توسط دفتر ارشد دیجیتال و هوش مصنوعی وزارت جنگ به Anthropic اعطا شد.
مذاکرات برای استقرار Claude در پلتفرم GenAI.Mil وزارتخانه پس از آنکه دو طرف نتوانستند بر سر محدودیتهای استفاده به توافق برسند، شکست خورد.
Anthropic بر دو شرط اصرار داشت: اینکه Claude برای نظارت گسترده بر آمریکاییها یا برای استفاده کشنده در جنگ خودکار استفاده نشود، با این استدلال که مدل هنوز برای هیچ یک از این اهداف ایمن نیست.
در جلسه 24 فوریه، وزیر جنگ پیت هگست به نمایندگان Anthropic گفت که اگر شرکت تا 27 فوریه محدودیتهای خود را حذف نکند، وزارتخانه بلافاصله آن را به عنوان یک ریسک زنجیره تامین تعیین خواهد کرد.
Anthropic از انجام این کار خودداری کرد.
در همان روز، رئیسجمهور ترامپ دستوری را منتشر کرد در Truth Social و به تمام سازمانهای فدرال دستور داد که "فوراً متوقف کنند" استفاده از فناوری این شرکت را، و Anthropic را "یک شرکت رادیکال چپ و بیدار" نامید.
کمی بیش از یک ساعت بعد، هگست توصیف کرد موضع Anthropic را به عنوان "کلاس استادی در غرور و خیانت،" و دستور داد که هیچ پیمانکاری که با ارتش تجارت میکند نمیتواند فعالیت تجاری با این شرکت داشته باشد. تعیین رسمی زنجیره تامین به دنبال یک نامه در 3 مارس انجام شد.
Anthropic در 9 مارس از دولت شکایت کرد، با ادعای نقض متمم اول، فرآیند قانونی، و قانون رویه اداری.
"مجازات Anthropic به خاطر آوردن بررسی عمومی به موضع قراردادی دولت، تلافی کلاسیک و غیرقانونی متمم اول است،" قاضی لین در دستور پنجشنبه نوشت.
این دستور، که برای هفت روز متوقف شد، هر سه اقدام دولت را مسدود میکند، یک گزارش انطباق تا 6 آوریل را الزامی میکند، و وضعیت موجود قبل از رویدادهای 27 فوریه را بازیابی میکند.
تسلیح کردن قانون
تعیین "ریسک زنجیره تامین" به طور تاریخی برای سازمانهای اطلاعاتی خارجی، تروریستها و سایر عوامل خصمانه محفوظ بوده است.
این هرگز قبل از Anthropic برای یک شرکت داخلی اعمال نشده بود. پیمانکاران دفاعی شروع به ارزیابی و در بسیاری از موارد خاتمه دادن به اتکای خود بر Anthropic در هفتههای بعد کردند، دستور قاضی لین اشاره کرد.
و موضعگیری دولت میتواند عواقب پیشبینینشدهای داشته باشد، کارشناسان استدلال میکنند.
در واقع، حکم پنجشنبه میتواند شرکتهای AI Agent را تشویق کند "به رسمیسازی موانع اخلاقی هنگام کار با دولتها،" پیچاپن پراتیپاوانیچ، استراتژیست سیاسی و بنیانگذار شرکت زیرساختی Gather Beyond، به Decrypt گفت.
تا حدودی، حکم همچنین نشان میدهد که شرکتها "میتوانند محدودیتهای استفاده واضحی تعیین کنند بدون اینکه به طور خودکار اقدام تنبیهی نظارتی را فعال کنند،" او گفت.
اما این "تنش را برطرف نمیکند،" او اضافه کرد. آنچه حکم محدود میکند "توانایی تشدید آن اختلاف به حذف گستردهتر یا برچسبگذاری است که تلافیجویانه به نظر میرسد."
با این حال، اعمال اختیار قانونی فعلی برای تعیین یک شرکت به عنوان یک ریسک زنجیره تامین "به این دلیل که از حذف موانع ایمنی خودداری کرده است" یک گسترش از قانون ریسک زنجیره تامین نیست، روسو توضیح داد. در عوض، به عنوان یک "تسلیح" قانون عمل میکند.
"این بخشی از یک الگوی رفتاری مداوم توسط کاخ سفید است هر زمان که با چالش مواجه میشوند، که منجر به تهدیدات نامتناسب، احساسی و مغرضانه و اخاذی دولتی میشود،" او اضافه کرد.
اگر "تئوری" دولت پذیرفته شود، یک سابقه "خطرناک" ایجاد میکند که در آن شرکتهای AI Agent میتوانند به دلیل سیاستهای ایمنی که دولت دوست ندارد، "قبل از وقوع هر آسیبی،" بدون فرآیند قانونی، تحت پرچم امنیت ملی، در لیست سیاه قرار گیرند، روسو گفت.
خبرنامه گزارش روزانه
هر روز را با مهمترین داستانهای خبری در همین لحظه، به علاوه ویژگیهای اصلی، پادکست، ویدیوها و موارد دیگر شروع کنید.
منبع: https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat



