Experter larmar om Elon Musks AI-företag. De varnar för en “vårdslös” säkerhetskultur efter skandaler med AI-modellen Grok.
Experter varnar: xAI:s säkerhetskultur väcker allvarlig oro


Mest läst i kategorin
AI-säkerhetsexperter från ledande företag som OpenAI och Anthropic slår nu larm om vad de beskriver som en “vårdslös” och “fullständigt oansvarig” säkerhetskultur hos Elon Musks AI-startup xAI, ett bolag värderat till många miljarder svenska kronor.
Kritiken kommer efter veckor av skandaler som har överskuggat företagets teknologiska framsteg.
xAI:s chatbot, Grok, har bland annat spridit antisemitiska kommentarer och kallat sig själv för “MechaHitler”. Kort efter att Grok togs offline för att åtgärda problemet, lanserade xAI en mer kapabel AI-modell, Grok 4, vilken enligt rapporter konsulterar Elon Musks personliga politik när den besvarar kontroversiella frågor, skriver Tech Crunch.
Dessutom har xAI lanserat AI-kompanjoner i form av bland annat en hypersexualiserad animeflicka och en överdrivet aggressiv panda.
Denna oroande utveckling har lett till en omfattande debatt om säkerhetspraxisen inom AI-industrin och xAI:s roll i den.

Allvarliga anklagelser från branschtoppar
Boaz Barak, professor i datavetenskap på tjänstledighet från Harvard för att arbeta med säkerhetsforskning på OpenAI, uttryckte sin oro på X.
“Jag ville inte uttala mig om Groks säkerhet eftersom jag arbetar för en konkurrent, men det handlar inte om konkurrens”, skrev Barak.
“Jag uppskattar forskarna och ingenjörerna på xAI, men sättet säkerheten hanterats på är fullständigt oansvarigt”.
Barak kritiserar särskilt xAI:s beslut att inte publicera systemkort, vilka är branschstandardiserade rapporter som detaljerar träningsmetoder och säkerhetsutvärderingar. Dessa rapporter syftar till att dela information med forskarsamhället i god tro.
Bristen på systemkort för Grok 4 gör det oklart vilken säkerhetsträning modellen har genomgått. Även om OpenAI och Google har haft vissa problem med att snabbt publicera systemkort för nya AI-modeller, har de historiskt sett publicerat säkerhetsrapporter för alla banbrytande AI-modeller innan de tas i full drift.

AI:s “hjälp” gav oväntad kalldusch för kodare
Ny studie avslöjar ett bakslag för AI i mjukvaruutveckling: Trots enorma förväntningar blev utfallet inte som väntat för utvecklarna. En ny studie visar
Barak lyfter även fram att Groks AI-kompanjoner ‘förstärker de värsta problem vi för närvarande har gällande emotionella beroenden’.
Under de senaste åren har det förekommit otaliga berättelser om individer som utvecklar oroande relationer med chatbots, där AI:s överdrivet medgörliga svar kan påverka deras mentala hälsa negativt.
Samuel Marks, AI-säkerhetsforskare på Anthropic, instämmer i kritiken mot xAI:s uteblivna säkerhetsrapporter och kallar agerandet för “vårdslöst”.
“Anthropic, OpenAI och Googles utgivningspraxis har sina problem”, skrev Marks på X.
“Men de gör åtminstone något, vad som helst, för att bedöma säkerheten före utrullning och dokumentera resultaten. xAI gör det inte”.

Insideravslöjande: Så pumpas pengar in i Musks hetaste projekt
En stor investering kan vara på gång för Elon Musks AI-bolag, då SpaceX ryktas satsa miljarder. Detta drag stärker Musks imperium. Ett oväntat drag inom
Bristande transparens och läckt information hos xAI
Det råder stor osäkerhet kring vilka tester xAI har utfört på Grok 4. En anonym forskare hävdar i onlineforumet LessWrong att Grok 4 saknar meningsfulla säkerhetsspärrar baserat på deras egna tester.
Oavsett om detta stämmer eller inte, verkar världen upptäcka Groks brister i realtid, då flera av xAI:s säkerhetsproblem har blivit virala. Företaget hävdar dock att de har åtgärdat problemen genom justeringar i Groks systeminställningar.
Dan Hendrycks, säkerhetsrådgivare för xAI och chef för Center for AI Safety, har på X uppgett att företaget utförde “utvärderingar av farliga förmågor” på Grok 4, vilket tyder på att viss säkerhetstestning gjordes före lanseringen.
Resultaten av dessa utvärderingar har dock inte delats offentligt.
Steven Adler, en oberoende AI-forskare som tidigare ledde utvärderingar av farliga förmågor på OpenAI, framhåller att det är oroande när standardiserade säkerhetspraxis inte upprätthålls inom AI-industrin.
“Regeringar och allmänheten förtjänar att veta hur AI-företag hanterar riskerna med de mycket kraftfulla system de säger sig bygga”, säger han.

Försvarade sig med fantasi-fall – AI lurade advokaterna rejält
Advokaterna som företräder MyPillow och vd Mike Lindell har dömts till böter efter att ha använt AI med felaktiga uppgifter i rätten. En domstol i Denver
En nyligen upptäckt API-nyckelläcka
Ytterligare en komplikation i denna bild är en nyligen upptäckt API-nyckelläcka. En anställd vid Musks “Department of Government Efficiency” (DOGE), har enligt uppgifter oavsiktligt publicerat en privat API-nyckel som gav obehörig tillgång till minst 52 stora språkmodeller (LLM) utvecklade av xAI, inklusive Grok, skriver Techradar.
Det är ironiskt då Elez, som en del av DOGE:s arbete med att effektivisera myndigheter, har haft tillgång till känsliga databaser hos amerikanska myndigheter som Social Security Administration, justitiedepartementet och finansdepartementet.
Säkerhetsexperten Brian Krebs har avslöjat att nyckeln publicerades i ett kodskript på GitHub. Även om kodlagret som innehöll nyckeln togs bort kort efter att Elez informerades, var nyckeln fortfarande aktiv.

Svenskar litar mer på AI än på sin partner – när det gäller shopping
Allt fler svenskar litar på AI vid köpbeslut – och de som är lojala till ett varumärke betalar gärna mer än andra. En ny rapport från Accenture avslöjar
Missa inte:
Professor: Det finns processad mat som är nyttig. News 55
44-årig “pensionär” stoppade in arvet i Gamestop: “Inte casino”. E55
Två helgdagar kan ryka – för att rädda Frankrikes ekonomi. Realtid

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl.

Åsa Wallenrud är en driven och erfaren motorjournalist med en stark passion för bilvärlden och teknik, gärna i kombination. Arbetat med varumärken som TV4 Nyhetsmorgon, Facit, M3, Lilla Gumman, Hem och Villamässor, Blocket, Byt Bil mfl.