Sulmet e “këmbimit të fytyrave” të Deepfake u rritën me 704% vitin e kaluar
Sipas një studimi të ri, sulmet e “këmbimit të fytyrave” të Deepfake u rritën me 704% nga gjysma e parë deri në gjysmën e dytë të vitit 2023.
Analistët në iProov , një firmë biometrike britanike, ia atribuan rritjes aksesit në rritje të mjeteve të sofistikuara gjeneruese të AI.
Me aftësinë e tyre për të manipuluar tiparet kryesore të një imazhi ose videoje, ndërrimet e fytyrave të bëra me GenAI janë të vështira për t’u zbuluar.
Ato janë gjithashtu miqësore për përdoruesit dhe të përballueshme. Për të krijuar shkëmbime bindëse të fytyrës, gjithçka që ju nevojitet është softueri i disponueshëm . Prodhimi i manipuluar ose sintetik më pas futet në një kamerë virtuale.
“Ka pasur një përhapje në mjetet e shkëmbimit të fytyrës duke e bërë shumë të lehtë krijimin dhe injektimin e shkëmbimeve të fytyrës me shumë pak njohuri teknike,” tha për TNW Dr Andrew Newell, Drejtor Shkencor në iProov.
“Njohuritë për këto mjete po përhapen shpejt përmes forumeve të shkëmbimit të informacionit, së bashku me teknikat për të anashkaluar shumë mbrojtje ekzistuese.”
SwapFace dhe DeepFaceLive janë mjetet më të njohura për aktorët e këqij, sipas iProov.
Sulmuesit shpesh i kombinojnë ato me emulatorë – të cilët imitojnë pajisjen e një përdoruesi, si një telefon celular – së bashku me metoda të tjera të manipulimit të meta të dhënave.
Duke përdorur këto mjete, mashtruesit mund të fshehin provat e kamerave virtuale, gjë që e bën më të vështirë zbulimin e shkëmbimit të fytyrës.
Mashtruesit e identitetit e kanë shfrytëzuar shpejt këtë dobësi. Nga gjashtëmujori i parë në gjysmën e dytë të vitit të kaluar, përdorimi i mediave të falsifikuara së bashku me mashtrimin e meta të dhënave u rrit me 672%. Në të njëjtën periudhë, pati një rritje prej 353% të aktorëve të kërcënimit që përdorin emulatorët.
Bashkëpunimi është gjithashtu në rritje. Nga grupet e identifikuara nga analistët e iProov, pothuajse gjysma (47%) u krijuan në vitin 2023.
Hulumtimi i iProov arrin vetëm disa ditë pas një prej mashtrimeve më të mëdha në histori.
Sipas policisë kineze, një punonjëse e financave në Hong Kong u mashtrua duke transferuar 200 milionë dollarë HK (23.8 milionë euro) për të mashtruar që paraqiteshin si kolegët e saj në një video-telefonatë. Përveç viktimës, të gjithë në thirrje ishin një rekreacion dixhital i një anëtari të vërtetë të stafit.
“Ndonëse nuk është konfirmuar, ka të ngjarë që ky sulm të përdorte teknologjinë e ndërrimit të fytyrës, e cila u siguron aktorëve të kërcënimit një nivel shumë të lartë kontrolli mbi videon e rreme të thellë, e kombinuar me teknikat e injektimit për ta bërë atë të duket sikur video në thirrja vinte nga një kamerë e vërtetë, “tha Newell.
“Këto janë mjetet që ne kemi identifikuar në raportin tonë si një kërcënim shumë domethënës.”
Katër vjet pasi studiuesit theksuan “deepfakes” krimin më shqetësues të AI , ankthet e tyre po bëhen realitet.