เพนตากอนประกาศกำหนดความเสี่ยงทางห่วงโซ่อุปทานอย่างเป็นทางการต่อห้องปฏิบัติการปัญญาประดิษฐ์ Anthropic ในวันพฤหัสบดีที่ 5 มีนาคม โดยจำกัดการใช้เทคโนโลยีที่แหล่งข่าวกล่าวว่ากำลังถูกใช้สำหรับ ปฏิบัติการทางทหารในอิหร่าน
ป้ายกำกับ "ความเสี่ยงทางห่วงโซ่อุปทาน" ซึ่งได้รับการยืนยันในแถลงการณ์โดย Anthropic มีผลบังคับใช้ทันทีและห้ามผู้รับเหมาของรัฐบาลใช้เทคโนโลยีของ Anthropic ในงานสำหรับกองทัพสหรัฐฯ
แต่บริษัทต่างๆ ยังสามารถใช้ Claude ของ Anthropic ในโครงการอื่นๆ ที่ไม่เกี่ยวข้องกับเพนตากอนได้ CEO Dario Amodei เขียนในแถลงการณ์ เขากล่าวว่าการกำหนดนี้มี "ขอบเขตแคบ" และข้อจำกัดใช้เฉพาะกับการใช้ AI ของ Anthropic ในสัญญาเพนตากอนเท่านั้น
"มันใช้เฉพาะกับการใช้ Claude โดยลูกค้าเป็นส่วนโดยตรงของสัญญาที่มีกับกระทรวงสงครามเท่านั้น ไม่ใช่การใช้ Claude ทั้งหมดโดยลูกค้าที่มีสัญญาดังกล่าว"
การกำหนดความเสี่ยงเกิดขึ้นหลังจากข้อพิพาทที่ยาวนานหลายเดือนเกี่ยวกับการยืนยันของบริษัทในมาตรการป้องกันที่กระทรวงกาลาโหม ซึ่งรัฐบาลทรัมป์เรียกว่ากระทรวงสงคราม กล่าวว่าไปไกลเกินไป ในแถลงการณ์ของเขา Amodei ย้ำว่าบริษัทจะท้าทายการกำหนดนี้ในศาล
ในช่วงไม่กี่วันที่ผ่านมา Anthropic และเพนตากอนได้หารือเกี่ยวกับแผนที่เป็นไปได้สำหรับเพนตากอนในการหยุดใช้ Claude Amodei กล่าวในแถลงการณ์วันพฤหัสบดี ทั้งสองฝ่ายได้พูดคุยกันว่า Anthropic อาจยังคงทำงานร่วมกับกองทัพได้อย่างไรโดยไม่ต้องรื้อถอนมาตรการป้องกัน เขากล่าวเสริม
อย่างไรก็ตาม ในโพสต์บน X ช่วงปลายวันพฤหัสบดี หัวหน้าเจ้าหน้าที่ฝ่ายเทคโนโลยีของเพนตากอน Emil Michael กล่าวว่าไม่มีการเจรจากับ Anthropic โดยกระทรวงกลาโหมอย่างจริงจัง
Amodei ยังขอโทษสำหรับบันทึกภายในที่เผยแพร่เมื่อวันพุธโดยเว็บไซต์ข่าวเทคโนโลยี The Information ในบันทึกที่เขียนครั้งแรกเมื่อวันศุกร์ที่แล้ว Amodei กล่าวว่าเจ้าหน้าที่เพนตากอนไม่ชอบบริษัทบางส่วนเพราะ "เราไม่ได้ให้คำชมแบบเผด็จการต่อทรัมป์"
การเผยแพร่บันทึกภายในเกิดขึ้นในขณะที่นักลงทุนของ Anthropic กำลังแข่งกันเพื่อควบคุมความเสียหาย ที่เกิดจากความขัดแย้งของบริษัทกับเพนตากอน
กระทรวงกลาโหมไม่ได้ตอบกลับคำขอแสดงความคิดเห็นทันที
การดำเนินการดังกล่าวแสดงถึงการตำหนิอย่างพิเศษโดยสหรัฐอเมริกาต่อบริษัทเทคโนโลยีอเมริกันที่เข้าร่วมงานกับเพนตากอนเร็วกว่าคู่แข่ง การดำเนินการเกิดขึ้นในขณะที่กระทรวงยังคงพึ่งพาเทคโนโลยีของ Anthropic เพื่อให้การสนับสนุนปฏิบัติการทางทหาร รวมถึงในอิหร่าน ตามที่บุคคลที่คุ้นเคญกับเรื่องนี้กล่าว
Claude น่าจะถูกใช้เพื่อวิเคราะห์ข่าวกรองและช่วยเหลือในการวางแผนปฏิบัติการ
โฆษกของ Microsoft กล่าวว่าทนายความของบริษัทได้ศึกษาการกำหนดและสรุปได้ว่า: "ผลิตภัณฑ์ของ Anthropic รวมถึง Claude สามารถใช้งานได้ต่อไปสำหรับลูกค้าของเรา — นอกเหนือจากกระทรวงสงคราม — ผ่านแพลตฟอร์มต่างๆ เช่น M365, GitHub และ Microsoft's AI Foundry"
Microsoft สามารถทำงานร่วมกับ Anthropic ในโครงการที่ไม่เกี่ยวข้องกับการป้องกันประเทศต่อไปได้ โฆษกกล่าวเสริม
Amazon ซึ่งเป็นนักลงทุนใน Anthropic และเป็นลูกค้าสำคัญของโมเดล Claude ของบริษัท ไม่ได้ตอบกลับคำขอแสดงความคิดเห็นทันทีนอกเวลาทำงานปกติ
Maven Smart Systems ของ Palantir – แพลตฟอร์มซอฟต์แวร์ที่จัดหาการวิเคราะห์ข่าวกรองและการกำหนดเป้าหมายอาวุธให้กับกองทัพ – ใช้ คำสั่งและขั้นตอนการทำงานหลายรายการ ที่สร้างขึ้นโดยใช้โค้ด Claude ของ Anthropic Reuters รายงานก่อนหน้านี้
Anthropic เป็นบริษัทที่ก้าวร้าวที่สุดในบรรดาคู่แข่งในการเข้าหาเจ้าหน้าที่ความมั่นคงแห่งชาติของสหรัฐฯ แต่บริษัทและเพนตากอนขัดแย้งกันมาหลายเดือนเกี่ยวกับวิธีที่กองทัพสามารถใช้เทคโนโลยีในสนามรบ ความขัดแย้งนี้ระเบิดขึ้นต่อสาธารณะในช่วงต้นปีนี้
Anthropic ปฏิเสธที่จะถอยหลังเกี่ยวกับการห้าม AI Claude ของตนในการขับเคลื่อนอาวุธอัตโนมัติและการเฝ้าระวังจำนวนมากของสหรัฐฯ เพนตากอนได้ตอบโต้ว่าควรสามารถใช้เทคโนโลยีนี้ตามความจำเป็น ตราบใดที่สอดคล้องกับกฎหมายสหรัฐฯ
ป้ายกำกับ "ความเสี่ยงทางห่วงโซ่อุปทาน" ตอนนี้ทำให้ Anthropic มีสถานะที่วอชิงตันจนถึงตอนนี้มักใช้สำหรับคู่แข่งต่างประเทศ การดำเนินการของสหรัฐฯ ที่คล้ายคลึงกันถูกนำมาใช้เพื่อถอนบริษัทเทคโนโลยียักษ์ใหญ่จีน Huawei ออกจากห่วงโซ่อุปทานของเพนตากอน – Rappler.com


