Pentagon klassar Anthropic, företaget bakom AI-modellen ”Claude”, och deras produkter som en försörjningskedjebrist med omedelbar verkan.
Pentagon i nytt krig – med AI-modellen Claude

Det är första gången i amerikansk historia som ett företag blir klassat på detta sätt. Det har hittills enbart skett mot företag från fientliga länder, exempelvis Huawei från Kina.
Konflikten handlar om hur Anthropics AI-modell Claude får användas av det amerikanska militären. Anthropic kräver garantier om att Claude inte används för massövervakning av amerikaner eller för helt autonoma vapensystem utan mänsklig styrning, medan Pentagon vill ha obegränsad tillgång för alla lagliga ändamål. Athropic vägrar, till skillnad från Open AI och deras modell ChatGPT som under tiden ingått avtal med Pentagon om att ersätta Claude i militärens klassificerade miljöer.
Klassningen innebär att försvarsleverantörer och entreprenörer måste intyga att de inte använder Anthropics modeller i sitt arbete med Pentagon, enligt CNBC. Försvarsföretaget Lockheed Martin har redan meddelat att man följer presidentens direktiv och söker alternativa AI-leverantörer.
Parallellt med konflikten används Claude fortsatt aktivt och den amerikanska militären har själva använt modellen i sina attacker mot Iran som inleddes förra helgen, enligt CBS News.
Anthropics VD Dario Amodei säger att företaget anser beslutet saknar laglig grund och att man inte har något annat val än att utmana det i domstol.






