OpenAI ndalon llogaritë e mbështetura nga shteti kinez dhe koreano-verior për përdorim keqdashës të AI

foto

OpenAI ka ndërmarrë veprime vendimtare kundër kërcënimeve kibernetike të sponsorizuara nga shteti, duke ndaluar llogari të shumta të lidhura me aktorë në Kinë dhe Korenë e Veriut. Në një raport kërcënimesh të publikuar më 8 tetor, kompania zbuloi se këto grupe përdorën modelet e saj të inteligjencës artificiale për të hartuar propozime për mjete mbikëqyrjeje, për të zhvilluar fushata phishing dhe për të ndihmuar në krijimin e programeve keqdashëse.

foto

Ky veprim nënvizon një front në rritje në luftën e ftohtë të inteligjencës artificiale, ku OpenAI po punon në mënyrë aktive për të parandaluar që teknologjia e saj të shndërrohet në armë nga regjimet autoritare.

foto

Ndërsa aktorët kërkuan të përmirësonin operacionet e tyre ekzistuese kibernetike, OpenAI pohon se mbrojtjet e saj kanë bllokuar me sukses kërkesat e drejtpërdrejta për kod të dëmshëm dhe se nuk janë ofruar aftësi të reja.

Raporti detajon një model keqpërdorimi nga subjektet e lidhura me qeveritë autoritare. Aktorë të lidhur me Kinën u kapën duke përdorur ChatGPT për të hartuar sisteme monitorimi të mediave sociale në shkallë të gjerë. Një propozim alarmues synonte të krijonte një “Model Paralajmërimi për Hyrjet me Rrezik të Lartë të Lidhur me Ujgurët” për të ndjekur udhëtimin e individëve të synuar.

Llogari të tjera të lidhura me Kinën përdorën inteligjencën artificiale për mbledhjen e informacionit me burim të hapur, duke u përpjekur të identifikonin kritikët e qeverisë dhe të gjenin burimet e tyre të financimit. Ky aktivitet përfaqëson një përpjekje të qartë për të përdorur teknologjinë e përparuar për mbikëqyrjen shtetërore dhe shtypjen e mospajtimit, sipas gjetjeve të kompanisë.

Ndërkohë, operatorët e Koresë së Veriut u përqendruan në taktikat më tradicionale të krimit kibernetik. Ata përdorën ChatGPT për të hulumtuar teknikat e phishing-ut, vjedhjen e kredencialeve dhe zhvillimin e malware-ve, me një fokus të veçantë në macOS-in e Apple. Pyetjet e tyre përfshinin debugging-un e kodit të dëmshëm dhe eksplorimin e strategjive të inxhinierisë sociale.

Hetimi i OpenAI zbulon një pasqyrë thelbësore mbi gjendjen aktuale të krimit kibernetik të ndihmuar nga inteligjenca artificiale: aktorët shtetërorë nuk po zhvillojnë superarmë të reja. Në vend të kësaj, raporti thekson se aktorët kërcënues po “ndërtojnë inteligjencën artificiale në rrjedhat e tyre ekzistuese të punës, në vend që të ndërtojnë rrjedha të reja pune rreth saj”.

Kompania nuk gjeti prova që modelet e saj u ofronin sulmuesve taktika të reja ose aftësi sulmuese që nuk mund t’i merrnin diku tjetër.

Kjo qasje shpesh vepron në atë që OpenAI e quan një “zonë gri” e aktivitetit me përdorim të dyfishtë. Një pjesë e konsiderueshme e përdorimit keqdashës të përfshirë kërkon detyra në dukje të padëmshme, si përkthimi i tekstit, modifikimi i kodit ose krijimi i një faqeje interneti.

Këto kërkesa bëhen kërcënuese vetëm në bazë të kontekstit dhe qëllimit të përdoruesit, duke paraqitur një sfidë komplekse zbulimi.

Operatorët në gjuhën koreane, për shembull, bënë shumë kërkesa që mund të përfshinin aplikacione legjitime si debugging softuerësh ose zhvillim shfletuesish. Megjithatë, siç vëren raporti, këto aktivitete “marrin një rëndësi të ndryshme kur ripërdoren nga një aktor kërcënimi”. Qëllimi nuk ishte shpikja, por përshpejtimi i operacioneve ekzistuese kibernetike.

Në mënyrë të ngjashme, grupi i phishing-ut i lidhur me Kinën përdori inteligjencën artificiale për të kërkuar efikasitet shtesë. Avantazhi kryesor që ata fituan ishte nga “rrjedhshmëria gjuhësore, lokalizimi dhe këmbëngulja”. Kjo përkthehej në gjenerimin e email-eve me më pak gabime gjuhësore, krijimin e “kodit më të shpejtë të ngjitjes” dhe bërjen e rregullimeve më të shpejta kur sulmet e tyre fillestare dështuan.

Qëllimi përfundimtar ishte shpejtësia dhe shkalla. Për këta aktorë, suksesi nënkuptonte prodhimin e emaileve të gatshme për t’u dërguar “phishing” dhe arritjen e “cikleve të shkurtuara të përsëritjes për kodin rutinë dhe automatizimin ”. Ky fokus në shtimin e zanatit tradicional, në vend të krijimit të formave të reja të sulmit, është një gjetje kyçe e hetimit të OpenAI.

Gjatë gjithë këtyre operacioneve, OpenAI theksoi se masat e saj mbrojtëse kanë qenë vazhdimisht të forta kundër kërcënimeve të drejtpërdrejta. Raporti pohon se modelet e saj “kanë refuzuar vazhdimisht kërkesat e hapura keqdashëse”. Në rastin e një zhvilluesi të programeve keqdashëse që fliste rusisht, sistemi mohoi posaçërisht kërkesat e drejtpërdrejta për shfrytëzime dhe regjistrues të tasteve.

Megjithatë, aktorët kërcënues po përshtaten. Raporti nxjerr në pah raste të ” përshtatjes dhe errësimit”, ku përdoruesit keqdashës ndryshojnë sjelljen e tyre për të shmangur zbulimin. Disa rrjete mashtrimi, të vetëdijshëm për diskutimet online rreth modeleve të tekstit të gjeneruara nga inteligjenca artificiale, udhëzuan posaçërisht modelin të hiqte vijat em-dashe për ta bërë rezultatin të dukej më njerëzor.

Kjo dinamikë ilustron sfidën kryesore për platformat e IA-së. Sipas OpenAI, mbrojtja efektive kërkon një “qasje të nuancuar dhe të informuar që përqendrohet në modelet e sjelljes së aktorëve kërcënues në vend të ndërveprimeve të izoluara të modelit”. Dallimi i një pyetjeje të mirë kodimi nga një që synon të rafinojë malware është vija e re e frontit në sigurinë e platformës.