Google përditëson dhe zgjeron familjen e modeleve Gemma AI me burim të hapur

Google ka shtuar modele të reja për plotësimin e kodit dhe konkluzionet më efikase në familjen Gemma. Kushtet e përdorimit janë bërë më fleksibël.

Google njoftoi sot se po zgjeron familjen e saj të modeleve Gemma të AI. Gemma u lëshua për herë të parë në shkurt dhe përfshin modele të lehta që përdorin të njëjtën teknologji si modelet më të mëdha Gemini të Google. Është këmba e Google në derë në tregun me burim të hapur.

Ekzistojnë tre versione të reja të CodeGemma, një model që i ndihmon programuesit të shkruajnë kodin:

Një model i para-trajnuar 7 miliardë parametrash për plotësimin e kodit dhe gjenerimin e kodit të ri
Një model 7 miliard parametrash i optimizuar për të biseduar rreth kodit dhe për të ndjekur udhëzimet
Një model i para-trajnuar 2 miliardë parametrash për plotësimin e shpejtë të kodit në pajisjet lokale

foto

CodeGemma është trajnuar për 500 miliardë argumente të dhënash nga dokumentet në internet, matematika dhe kodi. Mund të shkruajë kod të saktë dhe kuptimplotë në Python, JavaScript, Java dhe gjuhë të tjera programimi të njohura. Google thotë se CodeGemma ka për qëllim t’i lejojë zhvilluesit të shkruajnë kode më pak të përsëritura dhe të fokusohen në detyra më të vështira.

Google lëshoi ​​gjithashtu RecurrentGemma, një model i veçantë që përdor rrjetet nervore të përsëritura dhe vëmendjen lokale për të qenë më efikas në kujtesë. Ai funksionon në mënyrë të ngjashme me modelin Gemma me parametra 2 miliardë, por ka disa përfitime:

Përdor më pak memorie për gjenerim më të gjatë teksti në pajisjet me memorie të kufizuar, si GPU të vetme ose CPU.
Ai mund të përpunojë tekstin më shpejt duke përdorur madhësi më të mëdha të grupeve dhe duke gjeneruar më shumë fjalë në sekondë.
Ai përparon kërkimin e AI duke treguar se si modelet jo-transformatore mund të performojnë akoma mirë.

foto

Google përditësoi gjithashtu modelet origjinale Gemma në versionin 1.1 me përmirësime të performancës, rregullime të gabimeve dhe kushte më fleksibël të përdorimit.

Modelet e reja tani janë të disponueshme në Kaggle, Nvidia NIM API, Hugging Face dhe në Vertex AI Model Garden. Ata punojnë me mjete duke përfshirë JAX, PyTorch, Hugging Face Transformers, Gemma.cpp, Keras, NVIDIA NeMo, TensorRT-LLM, Optimum-NVIDIA dhe MediaPipe.