En ny konflikt har blossat upp i det globala AI-racet. Det amerikanska AI-bolaget Anthropic anklagar nu tre kinesiska teknikbolag för att olagligt ha utnyttjat dess modell Claude för att träna sina egna system.
Misstänkt AI-fusk skakar branschen: “Åker snålskjuts”

Enligt Anthropic ska de kinesiska bolagen DeepSeek, MiniMax och Moonshot AI ha skapat över 24 000 falska konton.
Genom dessa konton ska bolagen ha genomfört mer än 16 miljoner interaktioner med Claude. Syftet, enligt Anthropic, var att använda svaren för att träna sina egna AI-modeller – en metod som kallas ”distillation”.
Distillation är i sig inte ovanligt i AI-branschen. Företag använder ofta tekniken för att skapa billigare och mer lättillgängliga versioner av sina egna modeller. Men de flesta ledande bolag förbjuder att man använder deras system för att träna konkurrerande modeller. Claude är dessutom inte tillgänglig i Kina.
Missa inte: Hon drar in 7 miljoner kronor – på fasta telefoner. Dagens PS
Liknande anklagelser från OpenAI
Konflikten trappas upp av att även OpenAI nyligen riktat liknande anklagelser.
I ett memo till den amerikanska kongressens särskilda Kinakommitté, som CNN tagit del av, skrev OpenAI att DeepSeeks snabba framsteg bygger på “dess pågående försök att åka snålskjuts på de kapaciteter som utvecklats av OpenAI och andra ledande amerikanska AI-laboratorier”.
Tidigare har OpenAI också uppgett att man granskar bevis för att DeepSeek ”kan ha på ett otillbörligt sätt destillerat deras modeller”.
DeepSeek har ännu inte kommenterat anklagelserna offentligt.
Varnar för säkerhetsrisker
Anthropic lyfter frågan bortom affärskonkurrens. Företaget varnar för att modeller som tränats genom otillåten distillation kan sakna viktiga säkerhetsspärrar.
Sådana modeller skulle kunna skapa nationella säkerhetsrisker om de används för exempelvis cyberbrott eller biologiska vapen, enligt bolaget.
Man varnar också för att de kan göra det möjligt för ”auktoritära regeringar att använda avancerad AI för offensiva cyberoperationer, desinformationskampanjer och massövervakning”.
Bolaget understryker allvaret med orden: ”Tidsfönstret för att agera är smalt”.
Läs även: Gates sågade OpenAI: ”Du kommer bränna den här miljarden”. Dagens PS
Del i större maktkamp
Bakgrunden är den hårdnande teknikkampen mellan USA och Kina. När DeepSeek lanserade en kraftfull modell som närmade sig ledande system som ChatGPT – men med mindre beräkningsresurser – väckte det stor uppmärksamhet i branschen.
Utvecklingen ifrågasatte den dåvarande uppfattningen att avancerade AI-modeller kräver enorm processorkraft. Den väckte också frågor om huruvida USA:s exportkontroller på avancerade chip verkligen fungerade.
Anthropic menar nu att händelserna i själva verket visar motsatsen. Enligt bolaget visar avslöjandena att kinesiska framsteg ”i betydande utsträckning är beroende av kapaciteter som extraherats från amerikanska modeller, och att genomföra denna extrahering i stor skala kräver tillgång till avancerade chip”.
Läs också: Snart kan AI läsa dina tankar – före dig. Realtid






