Jag minns den gången min kusin försökte montera ett BILLY-bibliotek utan instruktioner. Resultatet såg ut som en modernistisk skulptur – eller en djupfalsk av ett bibliotek. Idag behöver inte ens cyberbrottslingar en manual för att skapa övertygande falskheter. Djupfalskar som tjänst (DFaaS) är nu lika lättillgängligt som flatpack-möbler – fast med mycket farligare konsekvenser. Och precis som med IKEA, så är det du som får städa upp när det går snett.
Men varför ska du bry dig? Jo, förra veckan läste jag om en AI-startup värd 100 miljarder som läckte biometriska data som nu kan användas för att klona röster och ansikten. Samtidigt dömdes en man i Ohio som använde AI för att skapa nonconsensuella bilder – ett fint ord för ”rent avskyvärt”. Djupfalskar är inte längre sci-fi; det är ett verktyg i varje bedragares verktygslåda. Så låt oss dyka ner i varför detta är som att ge en pyroman en tändsticksfabrik – och vad du kan göra åt det.
1. DFaaS: Cyberkriminalitetens nya ”McDonald’s-meny”
Tänk dig att du kunde beställa en perfekt falsk video av din chef som ber alla skicka lösenord till en nigeriansk prins – utan att ens behöva kunna koda. Välkommen till Djupfalskar-som-en-tjänst (DFaaS), där även den tekniskt odugligste kan hyra sig till en övertygande bedragare.
Plattformar på mörka nätet erbjuder nu:
- Ansiktsbyten i realtid (perfekt för videomöten där ”chefen” plötsligt ber om en snabb överföring)
- Röstklonering som låter som din mamma när hon ringer och ber om ditt kreditkortsnummer
- Falska ID-handlingar som klarar grundläggande biometriska kontroller
Det värsta? Dessa tjänster marknadsförs med samma entusiasm som en Black Friday-reklam. ”Ingen teknisk kunskap krävs!” står det – som om det vore en fördel, inte en varningsskylt för civilisationens undergång.
2. När AI-företag blir hackarnas bästa vänner
Förra året läckte ett AI-företag (som levererar träningsdata till jättar som Meta) 4 terabyte med biometriska data – ansikten, röster och ID-handlingar. Det är som att ge nycklarna till bankvalvet till en grupp som redan planerar ett rån.
Varför är detta så farligt?
- Biometriska data kan inte bytas – om ditt fingeravtryck eller ansikte läcker, är det läckt för alltid.
- Bedragare behöver inte längre stjäla – de kan skapa. Varför knäcka ett lösenord när du kan få AI att säga ”Hej, det är jag, skicka pengar”?
- Supply chain-attacker blir det nya normala. Hackare smyger in skadlig kod i öppen källkod (som LiteLLM), och plötsligt har 1000-tals företag ett dataläck.
Min favoritdetail? Hackargruppen bakom läckan samarbetar nu med ransomware-gäng. Det är som om Bonnie och Clyde hade slått sig ihop med Enron – en kombination av charm och total moralisk bankrutt.
3. Lagar hinner inte med – men domstolar börjar agera
I Ohio dömdes nyligen en man för att ha använt AI för att skapa nonconsensuella bilder (ja, jag upprepar det medvetet – det är så äckligt att det förtjänar att nämnas två gånger). Detta var första gången den amerikanska lagen ”Take It Down Act” användes, som kriminaliserar:
- Att sprida djupfalskade sexbilder utan samtycke
- Att använda AI för att skapa barnpornografi (vilket, för de som undrar, redan var olagligt – men nu är straffen hårdare)
- Att inte ta ner sådant material inom 48 timmar efter anmälan
Problemet? Lagar är som en schackpjäs som försöker hinna med en AI som spelar 4D-schack. När lagen ”Take It Down Act” skrevs 2025, hade hackare redan hunnit utveckla verktyg som går runt den. Det är som att försöka stoppa en Tesla med en hastighetsbegränsningsskylt från 1950.
Mini-anekdot: Förra månaden fick jag ett mejl från ”min chef” som bad om hjälp med en ”hemlig bonusutbetalning”. Jag svarade: ”Klart! Skicka bara ditt personnummer och tre senaste lösenorden så fixar jag det 😊”. Svaret? ”…”. (Och nej, det var inte min chef. Eller… var det det?)
4. Så här skyddar du dig (och ditt företag) mot djupfalskar
Tricksies 7-stegs checklist för djupfalsksäkerhet
- Aktivera flerfaktorsautentisering (MFA) överallt – helst med fysiska nycklar, inte SMS. (Om hackare kan klona din röst, kan de nog även avlyssna dina SMS.)
- Träna din personal i ”djupfalsk-hygien”:
- Varför chefen plötsligt pratar med en rysk brytning i ett Zoom-möte?
- Varför ber ekonomichefen om en snabb överföring via WhatsApp?
- Använd liveness-detektion för känsliga system. AI kan klona ett ansikte, men (ännu) inte en levande människa som blinkar eller svettas nervöst.
- Begränsa offentliga bilder/röstprover. Ju mindre material som finns om dig online, desto svårare att skapa en djupfalsk. (Ja, det innebär att du måste sluta posta TikTok-videor där du sjunger i duschen.)
- Overvaka mörka nätet (eller anlita någon som gör det). Om dina uppgifter läcker, vill du veta det innan bedragarna börjar använda dem.
- Ha en ”djupfalsk-krisplan”. Vad gör ni om en falsk video av er VD sprids? (Tip: ”Panik” är inte en strategi.)
- Uppdatera era leverantörers säkerhet. Om ditt AI-företag använder öppen källkod som LiteLLM, se till att de patchar innan hackare hinner smyga in skadlig kod.
Nästa steg: När rävarna vaknar
Djupfalskar är inte längre framtid – de är nutid. Men precis som med all teknologi gäller det att vara ett steg före. Här är vad jag kommer göra (och vad du också borde överväga):
- Kör ett ”djupfalsk-fire drill” på jobbet. Skicka ut en falsk (men uppenbarligen falsk) video av ”chefen” och se vem som biter på. De som faller för det får köpa fika nästa gång.
- Investera i verktyg som Reality Defender (eller liknande) som kan upptäcka djupfalskar. Ja, det kostar – men det är billigare än en ransomware-attack.
- Pusha för lagar som straffar plattformar som sprider djupfalskar. Just nu är det för lätt för sociala medier att skylla på ”vi är bara en plattform”. (Spoiler: Nej, ni är medskyldiga.)
- Lär dig känna igen tecken på djupfalskar:
- Konstiga ögonrörelser (eller inga alls)
- Suddig bakgrund eller händer som ser ut som ”vaxfigurer”
- Röster som låter nästintill rätt, men saknar naturliga pauser
- Sluta tro på allt du ser. Det låter cyniskt, men i en värld där även din farmor kan vara en AI-genererad bedragare, är skepticism en överlevnadsstrategi.
Och kom ihåg: Om något känns för konstigt för att vara sant – som när din IT-avdelning plötsligt ber om ditt lösenord via Snapchat – så är det förmodligen för att det är konstigt. Eller som min mamma alltid säger: ”Tricksie, om en räv erbjuder dig gratis kyckling, så är det antingen en fälla – eller så har kycklingen redan ätits.”
Så håll ögonen öppna, uppdatera era säkerhetsrutiner, och om allt annat misslyckas: fråga dig själv – skulle min chef verkligen be om pengar via Instagram DM? (Spoiler: Nej. Nej, det skulle hen inte.)