Amerikanska AI-bolag larmar om kinesisk teknikstöld. Miljontals chattar ska ha använts för att kopiera ledande AI-modeller.
Stormaktskampen om AI – nu väcks nya anklagelser

Konkurrensen om att utveckla nästa generations artificiella intelligens hårdnar mellan USA och Kina. Nu anklagar det amerikanska bolaget Anthropic flera kinesiska AI-företag för att systematiskt ha kopierat dess teknik, uppger Euronews.
Enligt Anthropic ska bolagen DeepSeek, Moonshot AI och MiniMax i hemlighet ha genererat över 16 miljoner konversationer med företagets chattbot Claude. Genom mer än 24 000 falska konton ska de ha samlat in svar för att träna egna konkurrerande modeller.
Ingen ny kritik
Det är inte första gången som DeepSeek anklagats för att ha kopierat teknik. Dagens PS har tidigare berättat om OpenAI:s som haft samma kritik.
Metoden som pekas ut kallas ”destillation”. Den innebär att någon med tillgång till en kraftfull AI-modell ställer tusentals frågor, samlar in svaren och använder dem för att träna en mindre och billigare modell att resonera på liknande sätt.
Läs mer: Anthropic tar bort säkerhetslöfte – kommer gasa på (Dagens PS)
Enligt Anthropic gör det möjligt att utveckla AI snabbare och ”till en bråkdel av kostnaden” jämfört med att göra grundarbetet själv.
Destillation är dock i sig inte olagligt. Företaget framhåller att tekniken är ”legitim” när ledande AI-laboratorier använder den för att skapa mindre och billigare versioner av sina egna modeller för kunder. Även Google har påpekat att mindre modeller svarar snabbare och kräver mindre datorkraft och energi, berättar Euronews.
Problemet uppstår, enligt Anthropic, när tekniken används för att kopiera andras system och kringgå skyddsmekanismer.
Höjer varningens finger
Enligt Euronews varnar företaget för att modeller som tränats på detta sätt kan sakna nödvändiga säkerhetsbarriärer för att hindra statliga och icke-statliga aktörer från att använda AI till exempelvis biologiska vapen eller cyberattacker.
Google betonar samtidigt att vanliga användare inte löper någon direkt risk. Det eftersom denna typ av angrepp inte hotar AI-tjänsternas integritetsskydd eller tillgänglighet.
Läs mer: AI-bossen: ”Känner obehag inför AI:s utveckling” (Dagens PS)
Eftersom Anthropics tjänster är blockerade i Kina ska trafiken ha dirigerats via så kallade proxyservrar i ett omfattande nätverk av falska konton.
Kontona uppges bland annat ha bett Claude förklara sina resonemang steg för steg för att skapa stora mängder träningsdata. De ska även ha använts för att ta fram ”censursäkra alternativ till politiskt känsliga frågor”, skriver Euronews.
Anthropic uppger att man har byggt system för att upptäcka sådana kampanjer. Men man konstaterar att inget enskilt AI-företag kan lösa problemet på egen hand.
Frågan riskerar därmed att bli ännu en bricka i det teknologiska stormaktsspelet mellan världens två största ekonomier.






