Anthropics modell Mythos har blivit omtalad. Den har lett till en konflikt mellan Vita huset och det stora AI-bolaget.
Vita huset till Anthropic: Ge inte fler tillgång till Mythos

Relationen mellan Vita huset och AI-bolaget Anthropic har åter hamnat i fokus.
Det kommer efter att den amerikanska regeringen motsatt sig en plan att bredda tillgången till bolagets avancerade modell Mythos.
Konflikten belyser den växande spänningen mellan teknisk innovation och nationell säkerhet i takt med att kraftfulla AI-system utvecklas.
Satte stopp för planerna
Anthropic hade föreslagit att ytterligare ett 70-tal företag och organisationer skulle få tillgång till modellen, vilket skulle ha mer än fördubblat antalet användare.
Administrationen satte dock stopp för planerna med hänvisning till säkerhetsrisker.
Oro finns för att tekniken kan utnyttjas för cyberattacker, då modellen är särskilt effektiv på att identifiera och exploatera sårbarheter i mjukvara, skriver Bloomberg.
Läs mer: AI hittar säkerhetsproblem i rekordfart: ”En lavin”. Realtid
En större fråga
Mythos har redan väckt uppmärksamhet inom både myndigheter och näringsliv. Den används i begränsad skala av aktörer som hanterar kritisk infrastruktur, samt av vissa statliga organ.
Samtidigt arbetar regeringen med att utöka sin egen tillgång till tekniken, vilket understryker dess strategiska betydelse.
Frågan om tillgången till modellen har blivit en del av en bredare konflikt mellan Anthropic och den federala regeringen, skriver Wall Street Journal.
Flera andra ligger hack i häl
Tidigare motsättningar rör bland annat hur bolagets teknik kan användas inom militären samt kopplingar till politiska nätverk. Tvister kopplade till dessa frågor pågår i rättssystemet.
Parallellt med diskussionerna om tillgång har bolaget också utrett misstänkt obehörig åtkomst till modellen, vilket ytterligare förstärkt oron kring säkerheten.
Samtidigt har andra techföretag, däribland Google och OpenAI, utvecklat liknande system med förmåga att snabbt upptäcka programvarufel.
Behöver allt fler datacenter
Den snabba utvecklingen innebär både möjligheter och risker.
AI-modeller kan användas för att identifiera säkerhetsbrister innan de utnyttjas, men de kan också göra det enklare att genomföra avancerade attacker i stor skala.
En ytterligare faktor i konflikten är tillgången till beräkningskraft.
Att driva och skala upp avancerade AI-modeller kräver enorma resurser, och regeringen befarar att en utökad användarbas kan påverka prioriteringar och tillgänglighet, särskilt för statliga behov.
Läs mer: AI får den amerikanska ekonomin att växa – men hur länge till? Realtid





