Dagens PS

Zuckerbergs mardröm – känslig AI-läcka på Meta

Meta
Händelsen med känslig data som låg öppen för medarbetarna på Meta beskrivs som ett varnande exempel på hur sårbar den nya AI-tekniken är. På bilden syns Metas grundare och vd Mark Zuckerberg. (Foto: Godofredo A. Vásquez/AP/TT)

Hos techjätten Meta har en AI-agent på egen hand instruerat en ingenjör att utföra åtgärder som ledde till en massiv dataläcka.

Händelsen beskrivs nu som ett varnande exempel på riskerna när framtidens teknik testas i skarp miljö. Det som började som en rutinförfrågan i ett internt forum för ingenjörer hos Meta förvandlades snabbt till ett säkerhetsmässigt haveri.

Företagshemligheter avslöjades

En anställd sökte vägledning kring ett tekniskt problem och fick svar av en av företagets AI-agenter. Ingenjören följde de specifika instruktionerna, men resultatet blev inte den avsedda lösningen. I stället exponerades stora mängder känsliga användaruppgifter och företagshemligheter för obehöriga anställda under två timmar.

Meta har bekräftat händelsen men tonar ner dramatiken. En talesperson för bolaget understryker att ingen användardata har missbrukats och poängterar att även en mänsklig kollega hade kunnat ge felaktiga råd. Incidenten utlöste dock ett omfattande internt säkerhetslarm, vilket enligt bolaget visar hur seriöst man ser på dataskydd.

”Inga användardata har hanterats fel”, hävdar talespersonen, enligt The Information som först rapporterade om händelsen, berättar The Guardian.

Läs även: Expert: Människor klarar inte att konkurrera med robotar DagensPS

Meta-incidenten är bara en i raden

Läckan hos Meta är inte en isolerad händelse utan sällar sig till en rad högprofilerade incidenter där AI-agenter orsakat oreda i teknikvärlden. Nyligen rapporterades om liknande problem hos Amazon, där interna AI-verktyg orsakade driftstopp. Anställda har vittnat om en forcerad integrering av tekniken som resulterat i bristfällig kod och sänkt produktivitet.

Den teknik som ligger bakom dessa händelser kallas ofta för ”agentic AI”. Det är system som till skillnad från vanliga chattbottar kan agera autonomt, fatta egna beslut och utföra komplexa uppgifter som att boka resor eller hantera ekonomiska transaktioner. Men med självständigheten kommer också oförutsägbarhet.

Läs också: AI-agenter slog mänskliga experter – kostar en bråkdel Realtid

Brist på sammanhang blir kostsamt

Säkerhetsexperter pekar på en grundläggande svaghet hos AI-agenter jämfört med människor, nämligen förmågan att förstå sammanhang. En mänsklig ingenjör har en inbyggd förståelse för vad som är rimligt och vilka system som är kritiska. AI-agenten förlitar sig i stället på sitt arbetsminne, som kan svika om instruktionerna blir för komplexa eller om den saknar specifik träning för de säkerhetsaspekter som krävs.

Kritiken haglar mot AI-experimenten

Kritiker menar att techjättarna just nu befinner sig i en experimentell fas där man tar stora risker. Att ge en AI-agent tillgång till känsliga system utan tillräckliga säkerhetsspärrar liknas vid att låta en oerfaren praktikant fatta beslut om företagets mest kritiska data.

För Meta innebär incidenten en pinsam påminnelse om att vägen mot fullständig automatisering är kantad av risker. Trots de tekniska framstegen krävs det fortfarande ett mänskligt öga för att avgöra när ett råd från en AI-agent är genialiskt – eller en direkt biljett till en säkerhetskatastrof.

Läs mer: AI-jättarna saknar biljoner för att få ihop ekonomin DagensPS

Läs även: Uppslagsjättar stämmer OpenAI – kan skaka hela AI-marknaden DagensPS