Google punon për të dobësuar avantazhin softuerik të Nvidia-s me ndihmën e Meta-s

foto

Alphabet’s Google po punon në një iniciativë të re për t’i bërë çipat e saj të inteligjencës artificiale më të mirë në funksionimin e PyTorch, kuadrit të softuerëve të inteligjencës artificiale më të përdorur në botë, në një lëvizje që synon dobësimin e Nvidia-s dominimi afatgjatë i tregut të informatikës IA, sipas njerëzve të njohur me këtë çështje.

foto

Përpjekja është pjesë e planit agresiv të Google për t’i bërë Njësitë e saj të Përpunimit Tensor një alternativë të qëndrueshme ndaj GPU-ve lider në treg të Nvidia-s. Shitjet e TPU-ve janë bërë një motor i rëndësishëm rritjeje i të ardhurave të Google nga cloud, ndërsa kërkon t’u provojë investitorëve se investimet e saj në IA po gjenerojnë fitime.

foto

Por vetëm hardueri nuk mjafton për të nxitur përdorimin. Iniciativa e re, e njohur në mënyrë të brendshme si “TorchTPU”, synon të heqë një pengesë kyçe që ka ngadalësuar përdorimin e çipave TPU duke i bërë ato plotësisht të pajtueshme dhe miqësore për zhvilluesit për klientët që tashmë kanë ndërtuar infrastrukturën e tyre teknologjike duke përdorur softuerin PyTorch, thanë burimet. Google po shqyrton gjithashtu pjesë të softuerit me burim të hapur për të shpejtuar përdorimin nga klientët, thanë disa nga personat.

Krahasuar me përpjekjet e mëparshme për të mbështetur PyTorch në TPU, Google i ka kushtuar më shumë fokus organizativ, burime dhe rëndësi strategjike TorchTPU-së, ndërsa kërkesa rritet nga kompanitë që duan të adoptojnë çipat, por e shohin paketën e softuerëve si një pengesë, thanë burimet.

PyTorch, një projekt me burim të hapur i mbështetur gjerësisht nga Meta Platforms, është një nga mjetet më të përdorura gjerësisht nga zhvilluesit që krijojnë modele të inteligjencës artificiale. Në Silicon Valley, shumë pak zhvillues shkruajnë çdo rresht kodi që çipohet nga Nvidia, Advanced Micro Devices ose Google do ta ekzekutojë në të vërtetë.

Në vend të kësaj, këta zhvillues mbështeten në mjete si PyTorch, i cili është një koleksion bibliotekash dhe kornizash kodi të paracaktuara që automatizojnë shumë detyra të zakonshme në zhvillimin e softuerëve të IA-së. I lëshuar fillimisht në vitin 2016, historia e PyTorch ka qenë e lidhur ngushtë me zhvillimin e CUDA-s nga Nvidia, softuerin që disa analistë të Wall Street e konsiderojnë si mburojën më të fortë të kompanisë kundër konkurrentëve.

Inxhinierët e Nvidia-s kanë kaluar vite duke u siguruar që softueri i zhvilluar me PyTorch të funksionojë sa më shpejt dhe me efikasitet të jetë e mundur në çipat e saj. Google, në të kundërt, prej kohësh ka pasur ushtritë e saj të brendshme të zhvilluesve të softuerëve që përdorin një kornizë të ndryshme kodi të quajtur Jax, dhe çipat e saj TPU përdorin një mjet të quajtur XLA për ta bërë atë kod të funksionojë me efikasitet. Pjesa më e madhe e softuerëve të IA-së të Google dhe optimizimi i performancës është ndërtuar rreth Jax, duke zgjeruar hendekun midis mënyrës se si Google i përdor çipat e saj dhe mënyrës se si klientët duan t’i përdorin ato.

Një zëdhënës i Google Cloud nuk komentoi mbi specifikat e projektit, por konfirmoi për Reuters se ky veprim do t’u ofronte klientëve zgjedhje.

“Po shohim një kërkesë masive dhe në rritje si për infrastrukturën tonë TPU ashtu edhe për atë GPU,” tha zëdhënësi. “Fokusi ynë është të ofrojmë fleksibilitetin dhe shkallën që zhvilluesit kanë nevojë, pavarësisht nga hardueri që ata zgjedhin të ndërtojnë.”

Alphabet kishte rezervuar prej kohësh pjesën më të madhe të çipave të vet, ose TPU-ve, vetëm për përdorim të brendshëm. Kjo ndryshoi në vitin 2022, kur njësia e cloud computing e Google-it loboi me sukses për të mbikëqyrur grupin që shet TPU. Ky veprim e rriti në mënyrë drastike alokimin e TPU-ve për Google Cloud dhe, ndërsa interesi i klientëve për IA-në është rritur, Google është përpjekur të përfitojë duke rritur prodhimin dhe shitjet e TPU-ve për klientët e jashtëm.

Por mospërputhja midis kornizave PyTorch të përdorura nga shumica e zhvilluesve të IA-së në botë dhe kornizave Jax për të cilat çipat e Google janë aktualisht më të përshtatur për t’i përdorur, do të thotë që shumica e zhvilluesve nuk mund t’i përvetësojnë lehtësisht çipat e Google dhe t’i bëjnë ata të performojnë po aq mirë sa ato të Nvidia-s pa ndërmarrë punë të konsiderueshme dhe shtesë inxhinierike. Një punë e tillë kërkon kohë dhe para në garën e shpejtë të IA-së.

Nëse do të ketë sukses, iniciativa “TorchTPU” e Google mund të ulë ndjeshëm kostot e ndërrimit për kompanitë që duan alternativa ndaj GPU-ve të Nvidia-s. Dominimi i Nvidia-s është përforcuar jo vetëm nga hardueri i saj, por edhe nga ekosistemi i softuerit CUDA, i cili është thellësisht i ngulitur në PyTorch dhe është bërë metoda e parazgjedhur me të cilën kompanitë trajnojnë dhe drejtojnë modele të mëdha të IA-së.

Klientët e ndërmarrjeve i kanë thënë Google se TPU-të janë më të vështira për t’u përshtatur për ngarkesat e punës së IA-së, sepse historikisht u është kërkuar zhvilluesve të kalojnë në Jax, një kornizë e të mësuarit automatik të preferuar nga brenda në Google, në vend të PyTorch, të cilin shumica e zhvilluesve të IA-së e përdorin tashmë, thanë burimet.

Për të përshpejtuar zhvillimin, Google po punon ngushtë me Metën, krijuesin dhe administratorin e PyTorch, sipas burimeve. Dy gjigantët e teknologjisë kanë diskutuar marrëveshje që Meta të ketë akses në më shumë TPU, një veprim i raportuar për herë të parë nga The Information.

Ofertat e hershme për Meta u strukturuan si shërbime të menaxhuara nga Google, në të cilat klientë si Meta instaluan çipa të Google të projektuar për të ekzekutuar softuerë dhe modele të Google, me Google që ofronte mbështetje operacionale. Meta ka një interes strategjik në punën me softuer që e bën më të lehtë ekzekutimin e TPU-ve, në një përpjekje për të ulur kostot e nxjerrjes së përfundimeve dhe për të diversifikuar infrastrukturën e saj të IA-së larg GPU-ve të Nvidia-s për të fituar fuqi negociuese, thanë burimet.

Meta nuk pranoi të komentojë.

Këtë vit, Google ka filluar të shesë TPU-të direkt në qendrat e të dhënave të klientëve në vend që të kufizojë aksesin në cloud-in e vet. Amin Vahdat, një veteran i Google, u emërua drejtues i infrastrukturës së inteligjencës artificiale këtë muaj, duke raportuar drejtpërdrejt te CEO Sundar Pichai.

Google ka nevojë për këtë infrastrukturë si për të drejtuar produktet e veta të inteligjencës artificiale, duke përfshirë chatbot-in Gemini dhe kërkimin e mundësuar nga inteligjenca artificiale, ashtu edhe për të furnizuar klientët me Google Cloud, i cili u shet akses në TPU kompanive të tilla si Anthropic.