Një spinoff i OpenAI ka ndërtuar një model të AI që i ndihmon robotët të mësojnë detyra si njerëzit
Në verën e vitit 2021, OpenAI mbylli në heshtje ekipin e tij të robotikës, duke njoftuar se përparimi po mbytej nga mungesa e të dhënave të nevojshme për të trajnuar robotët se si të lëvizin dhe të arsyetojnë duke përdorur inteligjencën artificiale.
Tani tre nga shkencëtarët e hershëm të kërkimit të OpenAI-t thonë se startup-i që ata krijuan në 2017, i quajtur Covariant, e ka zgjidhur këtë problem dhe ka zbuluar një sistem që kombinon aftësitë e arsyetimit të modeleve të mëdha gjuhësore me shkathtësinë fizike të një roboti të avancuar.
Modeli i ri, i quajtur RFM-1, u trajnua mbi të dhënat e mbledhura prej vitesh nga flota e vogël e robotëve që zgjedhin artikujt e Covariant që klientët si Crate & Barrel dhe Bonprix përdorin në magazina në mbarë botën, si dhe fjalë dhe video nga interneti. Në muajt në vijim, modeli do të dalë për klientët e Covariant. Kompania shpreson se sistemi do të bëhet më i aftë dhe më efikas ndërsa është i vendosur në botën reale.
Pra, çfarë mund të bëjë? Në një demonstrim që mora pjesë javën e kaluar, bashkëthemeluesit e Covariant, Peter Chen dhe Pieter Abbeel më treguan se si përdoruesit mund ta nxisin modelin duke përdorur pesë lloje të ndryshme të dhënash: tekst, imazhe, video, udhëzime robotike dhe matje.
Për shembull, tregojini atij një imazh të një koshi të mbushur me pajisje sportive dhe thuajini të marrë paketën me topat e tenisit. Roboti më pas mund ta rrëmbejë sendin, të krijojë një imazh se si do të duket koshi pasi të jenë zhdukur topat e tenisit, ose të krijojë një video që tregon një pamje nga sytë e shpendëve se si do të duket roboti duke bërë detyrën.
Nëse modeli parashikon se nuk do të jetë në gjendje ta kuptojë siç duhet artikullin, ai mund edhe të shkruajë përsëri: “Nuk mund ta kap mirë. A keni ndonjë këshillë?” Një përgjigje mund ta këshillojë atë që të përdorë një numër specifik të kupave të thithjes në krahët e tij për ta kuptuar më mirë – për shembull, tetë kundrejt gjashtë.
Ky përfaqëson një hap përpara, më tha Chen, në robotët që mund të përshtaten me mjedisin e tyre duke përdorur të dhëna stërvitore dhe jo kodin kompleks, specifik për detyrën, që fuqizoi gjeneratën e mëparshme të robotëve industrialë. Është gjithashtu një hap drejt vendeve të punës ku menaxherët mund të lëshojnë udhëzime në gjuhën njerëzore pa u shqetësuar për kufizimet e punës njerëzore. (“Paketoni 600 kuti gatimi për makarona me piper të kuq duke përdorur recetën e mëposhtme. Mos bëni pushime!”)
Lerrel Pinto, një studiues që drejton laboratorin e robotikës për qëllime të përgjithshme dhe AI në Universitetin e Nju Jorkut dhe nuk ka lidhje me Covariant, thotë se edhe pse robotistët kanë ndërtuar robotë bazë multimodalë më parë dhe i kanë përdorur në mjedise laboratorike, duke vendosur një në shkallë që është në gjendje. të komunikosh në këto mënyra të shumta shënon një arritje mbresëlënëse për kompaninë.
Për t’i kaluar konkurrentët e tij, Covariant do të duhet të marrë në dorë të dhëna të mjaftueshme që roboti të bëhet i dobishëm në natyrë, më tha Pinto. Dyshemetë e magazinës dhe portat e ngarkimit janë vendi ku do të vihet në provë, duke ndërvepruar vazhdimisht me udhëzime, njerëz, objekte dhe mjedise të reja.
“Grupet që do të trajnojnë modele të mira do të jenë ato që kanë ose akses në sasi të mëdha të të dhënave robotike ose aftësi për të gjeneruar ato të dhëna,” thotë ai.
Covariant thotë se modeli ka një aftësi “të ngjashme me njeriun” për të arsyetuar, por ka kufizimet e veta. Gjatë demonstrimit, në të cilin mund të shihja një furnizim të drejtpërdrejtë të një roboti Covariant, si dhe një dritare bisede për të komunikuar me të, Chen më ftoi t’i bëja modeles çdo gjë që doja. Kur i kërkova robotit “ta kthente bananen në Tote Two”, ai u përpoq të bënte përsëri hapat e tij, duke e çuar atë të merrte një sfungjer, pastaj një mollë, pastaj një mori sendesh të tjera përpara se të kryente përfundimisht detyrën e bananes.
“Nuk e kupton konceptin e ri,” tha Chen si shpjegim, “por është një shembull i mirë – mund të mos funksionojë ende mirë në vendet ku nuk keni të dhëna të mira stërvitore.”
Modeli i ri i kompanisë mishëron një ndryshim paradigme që vërtitet në botën e robotikës. Në vend që t’i mësojnë një roboti se si funksionon bota me dorë, përmes udhëzimeve si ekuacionet dhe kodet e fizikës, studiuesit po e mësojnë atë në të njëjtën mënyrë që njerëzit mësojnë: përmes miliona vëzhgimeve.
Rezultati “me të vërtetë mund të veprojë si një tru fleksibël shumë efektiv për të zgjidhur detyra arbitrare të robotëve”, tha Chen.
Fusha e lojës e kompanive që përdorin AI për të fuqizuar sisteme robotike më të shkathëta ka të ngjarë të bëhet e mbushur me njerëz këtë vit. Në fillim të këtij muaji, startup-i i robotikës humanoid, Figure AI, njoftoi se do të ishte partner me OpenAI dhe grumbulloi 675 milionë dollarë nga gjigantët e teknologjisë si Nvidia dhe Microsoft. Marc Raibert, themeluesi i Boston Dynamics, kohët e fundit filloi një iniciativë për të integruar më mirë AI në robotikë.
Kjo do të thotë që përparimet në mësimin e makinerive ka të ngjarë të fillojnë të përkthehen në përparime në robotikë. Megjithatë, disa çështje mbeten të pazgjidhura. Nëse modelet e mëdha të gjuhëve vazhdojnë të trajnohen me miliona fjalë pa kompensuar autorët e atyre fjalëve, ndoshta do të pritet që modelet e robotikës të trajnohen edhe në video pa paguar krijuesit e tyre. Dhe nëse modelet gjuhësore halucinojnë dhe përjetësojnë paragjykimet, çfarë ekuivalentesh do të shfaqen në robotikë?
Ndërkohë, Covariant do të shtyjë përpara, me dëshirë që RFM-1 të mësojë dhe të përsosë vazhdimisht. Përfundimisht, studiuesit synojnë që roboti të stërvitet në videot që krijon vetë modeli – lloji i meta-mësimit që jo vetëm që më bën kokën të rrotullohet, por gjithashtu ndez shqetësimin se çfarë do të ndodhë nëse gabimet e bëra nga vetë modeli përzihen. Por me një uri të tillë për më shumë të dhëna trajnimi, studiuesit e shohin atë pothuajse si të pashmangshëm.
“Trajnimi për këtë do të jetë një realitet,” thotë Abbeel. “Nëse flasim sërish pas një viti e gjysmë, për këtë do të flasim.”