Sistemi Google DeepMind AI arrin momentin historik në konkursin global të matematikës
Hulumtuesit në Google DeepMind kanë trajnuar një lloj të ri të sistemit AI të aftë për të zgjidhur probleme komplekse matematikore nga Olimpiada Ndërkombëtare e Matematikës e këtij viti, duke arritur një rezultat të barabartë me një fitues të medaljes argjendi për herë të parë, tha kompania të enjten.
IMO është konkursi më i vështirë i matematikës në botë për nxënësit e shkollave të mesme. Ekipet e gjashtë nga matematikanët e rinj më të zgjuar në mbarë botën u janë dhënë gjashtë probleme, të cilat secili duhet t’i provojë për t’i zgjidhur gjatë dy ditëve. Ata mund të fitojnë maksimumi 7 pikë për çdo problem, me një rezultat perfekt që arrin në 42 pikë. Skuadra e matematikës së SHBA-së fitoi vendin e parë këtë vit me pesë nga gjashtë adoleshentë me të paktën 29 pikë, minimumi i nevojshëm për të fituar një medalje të artë.
Sistemi i fundit i Google DeepMind, i quajtur AlphaProof, nuk ishte shumë prapa. Edhe pse nuk i zgjidhi gjashtë problemet e IMO-së në afatin kohor të konkursit, ai arriti të arrijë 28 pikë – rezultati më i lartë që ka arritur deri më tani AI. Kompanitë si Google DeepMind besojnë se zgjidhja e problemeve të vështira matematikore abstrakte është e nevojshme për zhvillimin e logjikës dhe aftësive të arsyetimit të kërkuara për inteligjencën e përgjithshme artificiale, ku teknologjia është më e mirë se njerëzit në shumicën e detyrave.
“Asnjë sistem i AI nuk ka arritur ndonjëherë një shkallë të lartë suksesi në këto lloje problemesh,” tha në një konferencë Pushmeet Kohli, Zv. “Kërkohet shumë arsyetim për të vërtetuar rezultatet.”
Sistemi i tij i fundit është një përmirësim në krahasim me modelin e mëparshëm AlphaGeometry të kompanisë, dhe ka zgjidhur 83% të të gjitha problemeve të gjeometrisë së IMO gjatë 25 viteve të fundit, krahasuar me normën e mëparshme prej 53% – duke përfshirë problemin më të vështirë të gjeometrisë të vendosur ndonjëherë në konkurs deri më tani. AlphaGeometria mund të trajtojë vetëm gjeometrinë, ndërsa AlphaProof mund të trajtojë fusha të tjera të matematikës si teoria e numrave, algjebra dhe kombinatorika.
Është e vështirë të vlerësohet se sa i zgjuar është në të vërtetë AlphaProof dhe niveli i arsyetimit që ka, ashtu si shikimi se si bën ChatGPT në LSAT nuk ofron një metrikë të qartë të inteligjencës së tij.
Por të qenit në gjendje për të gjetur përgjigjet e sakta për problemet komplekse matematikore dhe të arsyetimit mund të jetë një hap kritik në arritjen e niveleve të ngjashme me fantashkencën e AGI që kompanitë si Google dhe OpenAI po ndjekin. Për të qenë të sigurt, është e qartë se AlphaProof nuk i zgjidh problemet matematikore njësoj si njerëzit, duke përdorur forcë më brutale dhe hamendje në disa raste. Ai gjeneron prova duke kërkuar dhe provuar kombinime të ndryshme të hapave të mundshëm matematikorë për të arritur në zgjidhjen më të mirë.
Alex Davies, një inxhinier kërkimi në Google DeepMind, i tha Semafor se AlphaProof funksionon paksa si modeli i mëparshëm i kompanisë, AlphaGo, i krijuar për të luajtur lojën e bordit të bazuar në strategji Go. Megjithatë, në vend që të kërkojë mbi lëvizjet e mundshme, AlphaProof përpiqet të gjejë sekuencën e duhur të hapave të provës. “Në çdo përpjekje të caktuar për një problem, [është] i kufizuar në më pak lëvizje sesa do të eksploroheshin në sistemet e shahut ose Go,” tha ai.
Por pjesëmarrësit njerëzorë të IMO-së mbështeten në njohuritë e tyre për teoremat dhe zhvillojnë një intuitë se si të zgjidhin një problem. Ata nuk duhet të marrin në konsideratë aq shumë mundësi të ndryshme, dhe në shumë mënyra, janë më efikase dhe inteligjente se makinat. Në një rast, AlphaProof iu deshën tre ditë për të arritur përfundimisht në një zgjidhje, për shembull.
Prapëseprapë, modelet e përgjithshme të gjuhëve të mëdha që fuqizojnë chatbot-et e AI shpesh luftojnë me matematikën bazë. Ata halucinojnë dhe nuk mund të përcaktojnë me saktësi se cili numër është më i madh se një tjetër ndonjëherë. AlphaProof shmang këto probleme duke gjeneruar përgjigjet e tij në kod. Nëse arrin të shkruajë një program që mund të ekzekutohet në një kompjuter pa gabime, zgjidhja e tij mund të jetë e saktë; por nëse nuk mundet, përgjigja e tij është padyshim e gabuar.
Studiuesit gjeneruan të dhëna sintetike për të trajnuar sistemin. Ai mësoi marrëdhëniet gjeometrike në forma të ndryshme duke inspektuar 100 milionë diagrame të vizatuara rastësisht dhe provat e tyre specifike për të kuptuar se si të zgjidhen probleme të reja.
Sistemi, megjithatë, zbuloi shkëlqime të shkëlqyera, sipas Sir Timothy Gowers, një profesor i kombinatorikës në Kolegjin e Francës dhe një medalist i Fields, çmimi më i lartë në matematikë që shpesh krahasohet me një çmim Nobel në shkencë dhe medalist të artë të IMO.
Gowers tha se për të gjetur një zgjidhje, matematikanët duhet të gjejnë truke të zgjuara si “çelësat magjikë” që zhbllokojnë problemin. Fillimisht, ai mendoi se gjetja e këtyre çelësave magjikë ishte “ndoshta pak përtej” aftësive të AlphaProof, por u befasua kur pa se i kishte gjetur një ose dy herë në zgjidhjet e tij.
“Më duket shumë mbresëlënëse dhe një kërcim domethënës nga ajo që ishte e mundur më parë,” tha ai.
Megjithëse AI është përmirësuar shumë në matematikë, nuk është ende e qartë se si mund të zbatohen këto aftësi në botën reale. Google DeepMind po shikon se si AlphaProof mund të ndihmojë studiuesit si një “asistent provë”.
David Silver, VP, Reinforcement Learning në Google DeepMind, tha se matematikanët e mirë bëjnë shumë më tepër sesa thjesht zgjidhjen e problemeve. Ata gjithashtu shtrojnë pyetje dhe nxjerrin mënyra të reja të të menduarit për të shpikur fusha të reja të matematikës. Ai tha se AlphaProof “nuk po i shtonte sasisë matematikore të njohurive që njerëzit kanë krijuar” deri më tani. Asnjë AI nuk mund ta bëjë këtë ende.
Silver më tha se do të duheshin shumë më tepër përparime në matematikë dhe teknologji për të arritur atë pikë. Ndoshta ky duhet të jetë testi i vërtetë nëse kemi arritur AGI apo jo.