Google Research më në fund ka gjetur një mënyrë për të simuluar neuroplasticitetin në inteligjencën artificiale (AI)

foto

Google Research ka zhvilluar një teknikë të re të të mësuarit automatik të quajtur Nested Learning, e cila është projektuar për të adresuar një të metë në IA të quajtur harresë katastrofike në të mësuarit e vazhdueshëm. Harresa katastrofike, thënë thjesht, është kur një IA përditësohet me informacion të ri ose i jepet një aftësi e re për të mësuar dhe fshin të dhënat, duke u bërë më keq në gjërat që dinte më parë.

foto

Metoda e re e të nxënit të ndërthurur (Nested Learning) që është zhvilluar në Google Research ndihmon në zgjidhjen e problemit të harresës katastrofike duke u frymëzuar nga truri i njeriut. Google e quajti atë një themel të fortë për të kapërcyer hendekun midis LLM-ve aktuale dhe natyrës së tyre harruese dhe trurit të njeriut.

foto

Mësimi i Ndërthurur përfshinte një ndryshim paradigme në të menduarit rreth arkitekturës dhe algoritmit të optimizimit të një modeli të IA-së. Tradicionalisht, zhvilluesit e IA-së e kanë parë arkitekturën dhe algoritmin e optimizimit të modelit si dy entitete të ndara; megjithatë, me Mësimin e Ndërthurur, ideja është t’i shohim ato si një entitet i vetëm.

Mësimi i Ndërthurur i trajton modelet e IA-së si një seri problemesh optimizimi më të vogla, të ndërlidhura dhe të ndërthurura. Secilit prej këtyre nën-problemeve i lejohet të mësojë dhe të përditësojë njohuritë e tij me një ritëm specifik të ndryshëm në një teknikë të quajtur përditësime në shkallë shumë-kohore. Kjo simulon funksionin e neuroplasticitetit në trurin e njeriut, ku pjesë të trurit tuaj përshtaten me përvojat e reja pa fshirë kujtimet e vjetra. Pra, në vend që i gjithë modeli të përditësohet në mënyrë uniforme dhe të fshijë njohuritë e vjetra, mësimi i ndërthurur i lejon atij të ketë një sistem dinamik dhe të shtresuar që përditësohet pa fshirë njohuritë e vjetra.

Google Research zbatoi parimet e saj të propozuara për të hartuar një model prove koncepti të quajtur Hope. Është një arkitekturë vetë-modifikuese përsëritëse që mund të optimizojë kujtesën e vet. Ai përdor Sistemet e Kujtesës së Vazhdueshme, të cilat e trajtojnë kujtesën jo si kova të thjeshta afatshkurtra dhe afatgjata, por si një spektër modulesh memorieje të shtresuara, secili duke u përditësuar në frekuencën e vet. Kjo i lejon modelit të menaxhojë dhe të ruajë më shumë të dhëna me kalimin e kohës në një mënyrë më të pasur dhe më të organizuar.

Hope ishte në gjendje të tejkalonte vazhdimisht modelet aktuale të teknologjisë së fundit në sfidat e kujtesës me kontekst të gjatë, siç janë detyrat “Gjilpërë në kashtë”, ku duhet të kujtojë një detaj specifik të vogël të fshehur thellë në një dokument të madh. Modeli ishte gjithashtu më i saktë dhe efikas në modelimin e përgjithshëm të gjuhës.

Shpresojmë që këto përmirësime do t’i shohim në versionet e ardhshme të Google Gemini. Fatkeqësisht, Google nuk ndau një afat kohor se kur mund të presim ta shohim atë në modelin e saj kryesor të inteligjencës artificiale.