Dagens PS

Raffinerade AI-bluffen: Lurades att betala ut 264 miljoner

deepfake
Digitala möten. En naturlig del i mångas vardag. Men vågar du lita på att personerna du talar med är på riktigt? (Foto: Jessica Gow/TT)
Jennie Nysted
Jennie Nysted
Uppdaterad: 04 feb. 2024Publicerad: 04 feb. 2024

Det är viktigt att alltid göra som chefen säger, men vågar du lita på att det verkligen är honom du talar med? En fråga som blev högaktuell i veckan som gick, då en bedragare med hjälp av falsk teknik snuvade ett finansbolag på miljoner.

ANNONS
ANNONS

Det låter nästan för osannolikt för att vara sant. Kanske för att det ser alldeles för verkligt ut?

I takt med att tekniken utvecklas har nämligen även formen på bedrägerierna antagit nya nivåer.

Främst när det kommer till deepfake: det vill säga datorframställd förfalskad information i form av bild eller film som framställs som äkta och mycket trovärdig. 

Ett slående exempel på det kunde Hongkongs polis rapportera in under fredagen, skriver CNN.

Videosamtal med kollegor

Detta sedan en anställd på ett multinationellt företag i finanssektorn lurats att betala ut 25 miljoner dollar, motsvarande 264 miljoner kronor till sin chef – åtminstone den han trodde var hans chef.

I det raffinerade bedrägeriet använde sig bedragaren nämligen av just deepfake och utgav sig för att företagets finanschef.

En utstuderad, men icke desto mindre fungerande strategi, där den anställde lurades till att delta i ett videosamtal med flera andra medarbetare – alla falska.

ANNONS
ANNONS

Senaste nytt

Hemlig transaktion

Han mottog sedan ett meddelande som påstods komma från bolagets finanschef, med en instruktion om överföringen i fråga.

En uppmaning som enligt polisen fick de anställde att misstänka att han utsatts för så kallad phishing. Detta då den begärda transaktionen skulle hållas hemlig.

Videomötet med kollegorna fick dock den anställde att svälja sina farhågor, eftersom de både såg ut och lät precis som vanligt.

Sagt och gjort. Miljonbeloppet överfördes och ännu ett fräckt bedrägeri kunde fullbordas – och det är garanterat inte det sista.

Skrämmande verktyg

Tvärtom ett i raden av nyligen rapporterade fall där bedragare lurat människor på pengar genom att modifiera offentligt videomaterial.

Ett skrämmande verktyg som myndigheter världen över nu behöver bekämpa, allt medan sofistikeringen av tekniken, och de skadliga användningsområden den kan utnyttjas för eskalerar.

ANNONS

Ett färskt exempel på det är de AI-genererade bilder av pornografisk natur på den amerikanska popstjärnan Taylor Swift som i månadsskiftet spreds på sociala medier. Bilder som givetvis var falska med hann nå miljontals följare innan de plockades ned.

Det du ser i modern tid är följaktligen inte alltid att lita på. Inte ens om det är dina kollegor.

Läs även:

Bedragare länsar ditt konto – med chatGPT

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
Jennie Nysted
Jennie Nysted

Redaktionschef på Dagens PS som bland annat bevakar världen, företag och privatekonomi.

Jennie Nysted
Jennie Nysted

Redaktionschef på Dagens PS som bland annat bevakar världen, företag och privatekonomi.

ANNONS
ANNONS

Senaste nytt

ANNONS