Mashtruesit përdorën CFO të rreme në video thirrje për të mashtruar punonjësit e kompanisë për t’i dërguar 25 milion dollarë
Mashtruesit që përdorën “deepfakes” të fuqizuara nga inteligjenca artificiale për t’u paraqitur si shefi financiar i një kompanie shumëkombëshe në një telefonatë video, ishin në gjendje të mashtronin një punonjës për t’i dërguar më shumë se 25 milionë dollarë, raportoi CNN.
Punonjësi i financës u mashtrua duke bërë një video-telefonatë me CFO-në e supozuar dhe disa drejtues të tjerë të lartë në kompani, por megjithëse ato dukeshin dhe dukeshin bindshëm realë, ato ishin në fakt falsifikime të thella, tha policia e Hong Kongut në një deklaratë të premten.
Sipas CNN, viktimës iu dërgua një email që pretendohej se ishte nga CFO i kompanisë. Punonjësi fillimisht dyshoi se mesazhi ishte një email phishing, pasi kërkonte që një shumë e madhe parash të transferohej në një llogari offshore. Megjithatë, mashtruesit arritën të fshinin çdo dyshim duke ftuar punonjësin të merrte pjesë në një video-telefonatë, ku të pranishëm ishin CFO-ja e supozuar dhe disa kolegë të tjerë që ai njihte.
Duke besuar se të gjithë pjesëmarrësit në thirrje ishin reale, punonjësi pranoi të dërgonte më shumë se 200 milionë dollarë dollarë Hong Kong (rreth 25.6 milionë dollarë) në një llogari të specifikuar, tha në një deklaratë mbikëqyrësi i lartë Baron Chan Shun-ching. “(Në) video konferencën me shumë persona, rezulton se të gjithë [që ai pa] ishin të rremë,” tha Chan për RTHK, transmetuesin publik të qytetit.
Mashtrimi u identifikua vetëm disa ditë më vonë, kur punonjësi u shqetësua për transferimin dhe kontrolloi në zyrën qendrore të korporatës. As punëtori dhe as kompania nuk janë identifikuar.
Deepfakes janë video që janë manipuluar nga kompjuterët , shpesh duke përdorur AI, për t’i bërë njerëzit të duken se thonë ose bëjnë diçka që nuk e kanë bërë kurrë, ose të shfaqen në vende ku nuk kanë qenë. Falë përparimeve në AI, “deepfakes” janë bërë më bindëse se kurrë më parë, dhe ato shpesh përdoren për të shpifur njerëzit në sytë e publikut.
Disa falsifikime të thella duken tepër realiste, dhe kështu nuk është çudi që teknologjia po abuzohet nga kriminelët në disa mënyra shumë krijuese për të lehtësuar mashtrimet. Policia e Hong Kongut tha se vetëm ajo ka hasur në më shumë se 20 raste që përfshinin përdorimin e falsifikimit të AI për të mashtruar sistemet e njohjes së fytyrës duke imituar njerëzit në kartat e identitetit.
Kryeinspektori Chan tha se policia së fundmi arrestoi gjashtë persona në lidhje me një mashtrim që përfshinte tetë karta identiteti të vjedhura në Hong Kong. Mashtruesit përdorën kartat për të krijuar falsifikime të thella që mund të mashtronin sistemet e njohjes së fytyrës dhe më pas aplikuan për më shumë se 90 aplikime për kredi dhe regjistrime të llogarive bankare vitin e kaluar.
“Sulmi i prezantimit i përdorur nga aktorët e kërcënimit që synojnë këtë kompani shumëkombëshe për miliona, shfaqi një nivel të lartë sofistikimi,” tha Kevin Vreeland, menaxher i përgjithshëm i Amerikës së Veriut në firmën e vërtetimit Veridas, për SiliconANGLE në një email. “Punonjësi fillimisht ndoqi protokollet e duhura, duke identifikuar saktë sulmin si potencialisht të rrënjosur në phishing. Megjithatë, përshkallëzimi i incidentit nxjerr në pah sesi inteligjenca artificiale u ka dhënë sulmuesve një këmbë dhe ka krijuar një mori sfidash sigurie për organizatat, veçanërisht në epokën e punës së përhapur në distancë.”
Vreeland tha se kompanitë duhet të zbatojnë metoda të përditësuara dhe të përmirësuara të verifikimit dhe vërtetimit. “Këto masa duhet të përqendrohen në zbulimin e gjallërisë dhe provës së jetës së punonjësve të tyre,” tha ai. “Është gjithashtu e rëndësishme që kompanitë të edukojnë punonjësit e tyre për rreziqet e “deepfakes” të ngjashme me llojet e tjera të mashtrimeve. Deepfakes zakonisht përmbajnë mospërputhje kur ka lëvizje. Për shembull, një vesh mund të ketë parregullsi të caktuara, ose irisi nuk tregon reflektimin natyral të dritës.
Deepfakes janë përdorur gjithashtu nga individë në një përpjekje për të manipuluar zgjedhjet politike. Në një shembull të kohëve të fundit, një regjistrim audio i rremë i Presidentit të SHBA Joe Biden iu shpërnda demokratëve me bazë në Nju Hampshire nëpërmjet thirrjeve automatike, duke u kërkuar atyre që të përmbahen nga votimi në zgjedhjet paraprake presidenciale.
Vitin e kaluar, një tjetër falsifikim i senatores Elizabeth Warren u shfaq në X, dikur në Twitter, ku thuhet se ajo tha se republikanët nuk duhet të lejohen të votojnë në zgjedhjet presidenciale të 2024-ës. Videoja u identifikua shpejt si e rreme, por u pa më shumë se 189,000 herë brenda një jave, përpara se të hiqej.
Një tjetër viktimë e fundit e deepfakes ishte ylli i popit Taylor Swift, i cili u tha se ishte “i zemëruar” që një numër i imazheve dhe videove të saj seksualisht eksplicite u shfaqën në X në janar.
Muajin e kaluar, një organizatë e re jofitimprurëse e quajtur TrueMedia njoftoi se po krijon një mjet të ri që do të përdorë AI për të luftuar falsifikimet e thella në mënyrë që t’i parandalojë ata të qarkullojnë dezinformata në zgjedhjet e 2024.
TrueMedia tha se do të analizojë orë të tëra filmimesh të rreme në mënyrë që të trajnojë një model të AI që mund të zbulojë video dhe audio të rreme. Për ta bërë këtë, është duke nxitur publikun të paraqesë shembuj të falsifikimit të thellë në mënyrë që të mund të krijojë një grup të dhënash trajnimi më gjithëpërfshirës. Grupi shpreson të lançojë një version falas, të bazuar në ueb të mjetit të tij në tremujorin e parë të vitit. Së pari do të vihet në dispozicion të gazetarëve, kontrolluesve të fakteve dhe ndikuesve në internet, tha organizata.
Kompani të tjera, duke përfshirë Intel Corp. dhe Meta Platforms Inc. , janë përpjekur gjithashtu të ndërtojnë mjete që mund të çrrënjosin falsifikimet e thella.