Google paralajmëron se sulmuesit po lidhin drejtpërdrejt inteligjencën artificiale me sulmet kibernetike në kohë reale
Një raport i ri i publikuar sot nga Grupi i Inteligjencës së Kërcënimeve të Google paralajmëron se aktorët kërcënues po shkojnë përtej eksperimentimit të rastësishëm me inteligjencën artificiale dhe tani po fillojnë të integrojnë IA-në direkt në rrjedhat e punës së sulmeve operacionale.

Raporti përqendrohet pjesërisht në abuzimin dhe shënjestrimin e modeleve Gemini të Google, duke nënvizuar se si sistemet gjeneruese të IA-së po testohen, hetohen dhe, në disa raste, po përfshihen gjithnjë e më shumë në mjete keqdashëse.

Studiuesit e Google vunë re disa familje programesh keqdashëse që bënin thirrje të drejtpërdrejta programimi aplikacionesh te Gemini gjatë ekzekutimit. Sulmet kërkonin në mënyrë dinamike kod burimor të gjeneruar nga modeli për të kryer detyra specifike, në vend që të integronin të gjitha funksionet keqdashëse brenda vetë kodit.
Në një shembull, një familje programesh keqdashëse e identifikuar si HONESTCUE përdori kërkesa për të rikuperuar kodin C# që më pas u ekzekutua si pjesë e zinxhirit të saj të sulmit. Kjo qasje u lejon operatorëve të zhvendosin logjikën jashtë binarit statik të programeve keqdashëse dhe potencialisht i ndërlikon metodat tradicionale të zbulimit që mbështeten në nënshkrime ose tregues të paracaktuar të sjelljes.
Raporti përshkruan gjithashtu përpjekjet e vazhdueshme për të kryer nxjerrjen e modelit, të njohura edhe si sulme distilimi. Aktorët kërcënues u zbuluan se po lëshonin vëllime të mëdha pyetjesh të strukturuara ndaj një modeli për të nxjerrë përfundime për sjelljen, modelet e përgjigjes dhe logjikën e brendshme të tij.
Ideja që qëndron pas sulmeve të distilimit është që, duke analizuar sistematikisht rezultatet, aktorët kërcënues mund të përafrojnë aftësitë e modeleve pronësore dhe të trajnojnë sisteme alternative pa pasur nevojë për kostot e zhvillimit dhe të infrastrukturës që lidhen me ndërtimin e tyre nga e para.
Google thotë se ka identifikuar dhe ndërprerë fushatat që përfshijnë aktivitet të shpejtë me volum të lartë që synojnë nxjerrjen e njohurive të modelit Gemini.
Gjetje të tjera në raport përfshinin studiues të Google që vëzhgonin se grupet e lidhura me shtetin dhe të motivuara financiarisht po përfshijnë mjete të inteligjencës artificiale në fazat e përcaktuara të operacioneve kibernetike, duke përfshirë zbulimin, kërkimin e dobësive, zhvillimin e skripteve dhe gjenerimin e përmbajtjes së phishing-ut. Modelet gjeneruese të inteligjencës artificiale vërehen si të afta të ndihmojnë në prodhimin e karremeve bindëse, rafinimin e fragmenteve të kodit dashakeq dhe përshpejtimin e kërkimit teknik kundër teknologjive të synuara.
Raporti zbuloi gjithashtu se aftësitë e inteligjencës artificiale agjentike po eksplorohen edhe nga kundërshtarët, pasi ato mund të projektohen për të ekzekutuar detyra shumëhapëshe me ndërhyrje minimale njerëzore, duke rritur mundësinë që programet keqdashëse të së ardhmes të përfshijnë elementë më autonome të vendimmarrjes. Megjithatë, deri më tani nuk ka prova për përhapjen e gjerë të inteligjencës artificiale agjentike nga kundërshtarët.
Megjithatë, për momentin, Google e karakterizon përdorimin më të madh të vëzhguar si shtim dhe jo si zëvendësim të operatorëve njerëzorë.
Të paktën një ekspert kibernetik, Dr. Ilia Kolochenko, drejtor ekzekutiv në ImmuniWeb SA , nuk mbeti i impresionuar nga raporti. Ai i tha SiliconANGLE me anë të email-it se “kjo duket të jetë një PR i orkestruar dobët i teknologjisë së inteligjencës artificiale të Google-it, mes interesit në rënie dhe zhgënjimit në rritje të investitorëve në inteligjencën artificiale gjeneruese”.
Së pari, tha ai, “edhe nëse kërcënimet e vazhdueshme të përparuara përdorin IA gjeneruese në sulmet e tyre kibernetike, kjo nuk do të thotë që IA gjeneruese më në fund është bërë mjaftueshëm e mirë për të krijuar programe keqdashëse të sofistikuara ose për të ekzekutuar zinxhirin e plotë të vrasjeve kibernetike të një sulmi. IA gjeneruese mund të përshpejtojë dhe automatizojë disa procese të thjeshta – madje edhe për grupet APT – por nuk ka të bëjë fare me përfundimet sensacionale rreth gjithëpushtetshmërisë së supozuar të IA gjeneruese në hakim.”
Së dyti, tha ai, “Google mund të jetë duke ngritur një kurth ligjor për veten. Duke qenë plotësisht i vetëdijshëm se grupet shtetërore dhe terroristët kibernetikë shfrytëzojnë në mënyrë aktive teknologjinë e inteligjencës artificiale të Google për qëllime dashakeqe, mund të jetë përgjegjës për dëmin e shkaktuar nga këta aktorë të kërcënimit kibernetik. Ndërtimi i kangjellave mbrojtëse dhe zbatimi i kujdesit të duhur ndaj klientit të zgjeruar nuk kushton shumë dhe mund të kishte parandaluar abuzimin e raportuar. Tani pyetja e madhe është se kush do të jetë përgjegjës, ndërsa Google nuk ka gjasa të ketë një përgjigje bindëse për të.”
