Antalet Deepfake-videor ökar med 900 procent varje år

Antalet Deepfake-videor ökar i procent varje år
Antalet Deepfake-videor ökar med 900 procent varje år

Enligt World Economic Forum (WEF) ökar antalet deepfake-videor online med 900 % varje år. Flera anmärkningsvärda fall av deepfake-bedrägerier skapade nyhetsrubriker, med rapporter om trakasserier, hämnd och kryptobedrägerier. Kaspersky-forskare belyser de tre främsta bluff-scheman som använder deepfakes som användare bör akta sig för.

Användningen av artificiella neurala nätverk, djupinlärning och därmed deepfake bedrägeritekniker tillåter användare över hela världen att digitalt förändra sina ansikten eller kroppar och på så sätt producera realistiska bilder, video- och ljudmaterial där vem som helst kan se ut som någon annan. Dessa manipulerade videor och bilder används ofta för att sprida desinformation och andra skadliga syften.

ekonomiskt bedrägeri

Deepfakes kan vara föremål för social ingenjörsteknik som använder bilder skapade av kriminella för att imitera kändisar för att locka offer i sina fällor. Till exempel spreds en konstgjord video av Elon Musk som lovar hög avkastning från ett tvivelaktigt investeringssystem för kryptovaluta snabbt förra året, vilket fick användare att förlora pengar. Bedragare använder bilder på kändisar för att skapa falska videor som den här, sy ihop gamla videor och lansera liveströmmar på sociala medieplattformar, och lovar att fördubbla alla kryptovalutabetalningar som skickas till dem.

pornografiska deepfake

En annan användning för deepfakes är att kränka en individs integritet. Deepfake-videor kan skapas genom att lägga en persons ansikte på en pornografisk video, vilket orsakar stor skada och ångest. I ett fall dök djupt falska videor upp på Internet där ansikten på några kändisar lades över pornografiska skådespelerskors kroppar i explicita scener. Som ett resultat, i sådana fall, skadas anseendet för offren för attacker och deras rättigheter kränks.

Affärsrisker

Ofta används deepfakes för att rikta in sig på företag för brott som utpressning från företagsledare, utpressning och industrispionage. Till exempel lyckades cyberbrottslingar genom att använda en deepfake röst lura en bankchef i Förenade Arabemiraten och stjäla 35 miljoner dollar. I det aktuella fallet krävdes det bara en liten inspelning av hans chefs röst för att fångas för att skapa en övertygande deepfake. I ett annat fall försökte bedragare lura den största kryptovalutaplattformen Binance. Binance-chefen sa "Tack!" om ett Zoom-möte han aldrig deltog i. Han blev förvånad när han började få meddelanden. Angriparna lyckades skapa en deepfake med offentliga bilder av chefen och implementera den genom att tala på chefens vägnar i ett onlinemöte.

FBI varnar personalchefer!

I allmänhet inkluderar syftet med bedragare som använder deepfakes desinformation och offentlig manipulation, utpressning och spionage. Personalchefer är redan uppmärksamma på användningen av deepfakes av kandidater som ansöker om distansarbete, enligt en FBI-varning. I Binance-fallet använde angriparna bilder av riktiga människor från internet för att skapa djupa förfalskningar, och till och med la till sina bilder till CV:n. Om de lyckas lura personalchefer på detta sätt och sedan får ett erbjudande kan de i efterhand stjäla arbetsgivardata.

Deepfakes fortsätter att vara en dyr form av bluff som kräver en stor budget och ökar i antal. En tidigare studie av Kaspersky avslöjar kostnaden för deepfakes på darknet. Om en vanlig användare hittar programvara på Internet och försöker deepfake den, blir resultatet orealistiskt och bedrägligt är uppenbart. Få människor tror på en lågkvalitativ deepfake. Han kan omedelbart märka förseningar i ansiktsuttryck eller suddig hakform.

Därför behöver cyberbrottslingar stora mängder data som förberedelse för en attack. Som foton, videor och röster av personen de vill utge sig för. Olika vinklar, ljusstyrka, ansiktsuttryck spelar en stor roll för den slutliga kvaliteten. En uppdaterad datorkraft och mjukvara krävs för att resultatet ska bli realistiskt. Allt detta kräver en stor mängd resurser, och endast ett litet antal cyberkriminella har tillgång till denna resurs. Därför förblir deepfake fortfarande ett extremt sällsynt hot, trots de faror det kan innebära, och endast ett litet antal köpare har råd med det. Som ett resultat börjar priset på en minuts deepfake på $20 XNUMX.

"Ibland kan ryktesrisker få mycket allvarliga konsekvenser"

Dmitry Anikin, Senior Security Specialist på Kaspersky, säger: "Ett av de allvarligaste hoten Deepfake utgör mot företag är inte alltid stöld av företagsdata. Ibland kan ryktesrisker få mycket allvarliga konsekvenser. Föreställ dig en video som sänds av din chef med polariserande kommentarer om (uppenbarligen) känsliga ämnen. För bolaget kan detta leda till en snabb nedgång i aktiekurserna. Men även om riskerna för ett sådant hot är extremt höga, är chansen att bli hackad på detta sätt extremt låg på grund av kostnaden för att skapa en deepfake och väldigt få angripare kan skapa en högkvalitativ deepfake. Vad du kan göra åt det är att vara medveten om nyckelfunktionerna i deepfake-videor och att vara skeptisk till röstmeddelanden och videor som kommer till dig. Se också till att dina anställda förstår vad en deepfake är och hur de kan upptäcka det. Till exempel, tecken som ryckiga rörelser, förändringar i hudton, konstiga blinkningar eller ingen blinkning kommer att vara vägledande.”

Kontinuerlig övervakning av darknet-resurser ger värdefulla insikter om deepfake-industrin, vilket gör att forskare kan följa de senaste trenderna och aktiviteterna hos hotaktörer i detta utrymme. Genom att övervaka darknet kan forskare upptäcka nya verktyg, tjänster och marknadsplatser som används för att skapa och distribuera deepfakes. Denna typ av övervakning är en kritisk komponent i djupfalsk forskning och hjälper oss att förbättra vår förståelse av det föränderliga hotlandskapet. Kaspersky Digital Footprint Intelligence-tjänsten inkluderar denna typ av övervakning för att hjälpa sina kunder att ligga steget före när det kommer till deepfake-relaterade hot.