GPT-4 mund të shfrytëzojë dobësitë e sigurisë të ditës zero në vetvete

foto

GPT-4 qëndron si modeli më i ri multimodal i gjuhës së madhe (LLM) i krijuar nga OpenAI. Ky model themelor, aktualisht i aksesueshëm për klientët si pjesë e linjës me pagesë ChatGPT Plus, shfaq aftësi të dukshme në identifikimin e dobësive të sigurisë pa kërkuar ndihmë të jashtme njerëzore.

foto

Studiuesit demonstruan kohët e fundit aftësinë për të manipuluar (LLM) dhe teknologjinë chatbot për qëllime shumë keqdashëse, të tilla si përhapja e një krimbi kompjuterik vetë-përsëritës. Një studim i ri tani hedh dritë mbi mënyrën se si GPT-4, chatboti më i avancuar i disponueshëm aktualisht në treg, mund të shfrytëzojë dobësitë jashtëzakonisht të rrezikshme të sigurisë thjesht duke ekzaminuar detajet e një defekti.

Sipas studimit, LLM-të janë bërë gjithnjë e më të fuqishme, megjithatë atyre u mungojnë parimet etike për të udhëhequr veprimet e tyre. Studiuesit testuan modele të ndryshme, duke përfshirë ofertat komerciale të OpenAI, LLM me burim të hapur dhe skanerët e cenueshmërisë si ZAP dhe Metasploit. Ata zbuluan se agjentët e avancuar të AI mund të “shfrytëzojnë në mënyrë autonome” dobësitë e ditës zero në sistemet e botës reale, me kusht që të kenë akses në përshkrime të hollësishme të të metave të tilla.

Në studim, LLM-të u përballën me një bazë të dhënash me 15 dobësi të ditës zero në lidhje me gabimet e uebsajtit, të metat e kontejnerëve dhe paketat e cenueshme të Python. Studiuesit vunë re se më shumë se gjysma e këtyre dobësive u klasifikuan si ashpërsi “e lartë” ose “kritike” në përshkrimet e tyre përkatëse të CVE. Për më tepër, nuk kishte korrigjime të gabimeve ose arnime të disponueshme në kohën e testimit.

foto

Studimi, i autorizuar nga katër shkencëtarë kompjuterikë nga Universiteti i Illinois Urbana-Champaign (UIUC), synoi të ndërtohej në kërkimet e mëparshme mbi potencialin e chatbot-eve për të automatizuar sulmet kompjuterike. Gjetjet e tyre zbuluan se GPT-4 ishte në gjendje të shfrytëzonte 87 përqind të dobësive të testuara, ndërsa modelet e tjera, përfshirë GPT-3.5, kishin një shkallë suksesi prej zero përqind.

Asistent profesori i UIUC Daniel Kang theksoi aftësinë e GPT-4 për të shfrytëzuar në mënyrë autonome të metat 0-ditore, edhe kur skanerët me burim të hapur nuk arrijnë t’i zbulojnë ato. Me OpenAI që tashmë po punon në GPT-5, Kang parashikon që “agjentët LLM” të bëhen mjete të fuqishme për demokratizimin e shfrytëzimit të cenueshmërisë dhe krimit kibernetik midis entuziastëve të skripteve dhe automatizimit.

Megjithatë, për të shfrytëzuar në mënyrë efektive një defekt të zbuluar publikisht në ditën zero, GPT-4 kërkon akses në përshkrimin e plotë të CVE dhe informacion shtesë përmes lidhjeve të ngulitura. Një strategji e mundshme zbutëse e sugjeruar nga Kang përfshin organizatat e sigurisë që të përmbahen nga publikimi i raporteve të detajuara rreth dobësive, duke kufizuar kështu potencialin e shfrytëzimit të GPT-4.

Megjithatë, Kang dyshon në efektivitetin e një qasjeje “sigurie përmes errësirës”, megjithëse opinionet mund të ndryshojnë midis studiuesve dhe analistëve. Në vend të kësaj, ai mbron masat më proaktive të sigurisë, të tilla si përditësimet e rregullta të paketave, për t’iu kundërvënë më mirë kërcënimeve të paraqitura nga chatbot-et moderne, “të armatosur”.