Det är viktigt att alltid göra som chefen säger, men vågar du lita på att det verkligen är honom du talar med? En fråga som blev högaktuell i veckan som gick, då en bedragare med hjälp av falsk teknik snuvade ett finansbolag på miljoner.
Raffinerade AI-bluffen: Lurades att betala ut 264 miljoner
Mest läst i kategorin
Det låter nästan för osannolikt för att vara sant. Kanske för att det ser alldeles för verkligt ut?
I takt med att tekniken utvecklas har nämligen även formen på bedrägerierna antagit nya nivåer.
Främst när det kommer till deepfake: det vill säga datorframställd förfalskad information i form av bild eller film som framställs som äkta och mycket trovärdig.
Ett slående exempel på det kunde Hongkongs polis rapportera in under fredagen, skriver CNN.
Videosamtal med kollegor
Detta sedan en anställd på ett multinationellt företag i finanssektorn lurats att betala ut 25 miljoner dollar, motsvarande 264 miljoner kronor till sin chef – åtminstone den han trodde var hans chef.
I det raffinerade bedrägeriet använde sig bedragaren nämligen av just deepfake och utgav sig för att företagets finanschef.
En utstuderad, men icke desto mindre fungerande strategi, där den anställde lurades till att delta i ett videosamtal med flera andra medarbetare – alla falska.
Hemlig transaktion
Han mottog sedan ett meddelande som påstods komma från bolagets finanschef, med en instruktion om överföringen i fråga.
En uppmaning som enligt polisen fick de anställde att misstänka att han utsatts för så kallad phishing. Detta då den begärda transaktionen skulle hållas hemlig.
Videomötet med kollegorna fick dock den anställde att svälja sina farhågor, eftersom de både såg ut och lät precis som vanligt.
Sagt och gjort. Miljonbeloppet överfördes och ännu ett fräckt bedrägeri kunde fullbordas – och det är garanterat inte det sista.
Skrämmande verktyg
Tvärtom ett i raden av nyligen rapporterade fall där bedragare lurat människor på pengar genom att modifiera offentligt videomaterial.
Ett skrämmande verktyg som myndigheter världen över nu behöver bekämpa, allt medan sofistikeringen av tekniken, och de skadliga användningsområden den kan utnyttjas för eskalerar.
Ett färskt exempel på det är de AI-genererade bilder av pornografisk natur på den amerikanska popstjärnan Taylor Swift som i månadsskiftet spreds på sociala medier. Bilder som givetvis var falska med hann nå miljontals följare innan de plockades ned.
Det du ser i modern tid är följaktligen inte alltid att lita på. Inte ens om det är dina kollegor.
Läs även:
Bedragare länsar ditt konto – med chatGPT
Redaktionschef på Dagens PS som bland annat bevakar världen, företag och privatekonomi.
Redaktionschef på Dagens PS som bland annat bevakar världen, företag och privatekonomi.