Nvidia hyn në boshllëkun e AI me kod të hapur që OpenAI, Meta Platforms dhe Anthropic e lanë pas
Një dokument i paraqitur në SEC zbulon se Nvidia planifikon të shpenzojë 26 miliardë dollarë për modele të inteligjencës artificiale me peshë të hapur gjatë pesë viteve të ardhshme. Ky veprim shërben edhe si një përgjigje strategjike ndaj dominimit në rritje të modeleve kineze me burim të hapur – dhe një mënyrë për t’i mbajtur zhvilluesit të lidhur me ekosistemin e harduerit të Nvidia-s.

Nvidia do të investojë 26 miliardë dollarë gjatë pesë viteve për të ndërtuar modele të inteligjencës artificiale me burim të hapur, sipas një dokumenti financiar të paraqitur në Komisionin e Letrave me Vlerë të SHBA-së. Drejtuesit e kompanisë i konfirmuan planet në intervista me WIRED.

Krahas njoftimit, Nvidia lançoi Nemotron 3 Super, modelin e saj më të aftë me peshë të hapur deri më sot me 128 miliardë parametra. Në grupin e testeve Artificial Analysis Index, modeli e tejkalon me një performancë të ngushtë GPT-OSS të OpenAI dhe është afërsisht në të njëjtin nivel me Claude 4.5 Haiku të Anthropic, por prapëseprapë nuk i arrin konkurrentët si kinezi Qwen3.5 122B A10B.
Nvidia përdori disa inovacione teknike gjatë trajnimit për të përmirësuar aftësitë e arsyetimit dhe trajtimin e konteksteve të gjata. Ashtu si variantet e tij më të vogla, Nemotron 3 Super është një model hibrid që kombinon arkitekturën Transformer me atë Mamba.
Investimi vjen në një kohë kur balanca e fuqisë në modelet e hapura të IA-së po ndryshon. Meta udhëhoqi me Llama-n, por CEO Zuckerberg sinjalizoi së fundmi se modelet e ardhshme mund të mos jenë plotësisht të hapura. GPT-OSS i OpenAI mbetet dukshëm më i dobët se ofertat pronësore të kompanisë. Anthropic nuk ofron fare modele të hapura.
Ndërkohë, ofruesit kinezë si DeepSeek, Alibaba, Moonshot AI dhe MiniMax publikojnë pothuajse të gjitha peshat e modeleve të tyre falas. Kohët e fundit ka pasur shenja ndryshimi edhe këtu, me largime nga ekipi Qwen i Alibaba-s. Por modelet kineze mbeten alternativa më e mirë e hapur për shumë raste përdorimi, edhe pse testet më të reja tregojnë vazhdimisht se hendeku praktik ndaj modeleve më të mira perëndimore është shpesh më i madh nga sa sugjerojnë testet më të vjetra – të cilat të gjithë shitësit i optimizojnë.
Megjithatë, përvetësimi i gjerë i këtyre modeleve në industrinë perëndimore nuk është materializuar. Trendi tregon drejt modeleve të mbyllura nga ofrues si Anthropic ose OpenAI.
Në janar të vitit 2025, DeepSeek shkaktoi trazira në tregun e aksioneve me një model efikas me burim të hapur që vuri në pikëpyetje epërsinë e perceptuar të laboratorëve perëndimorë të inteligjencës artificiale dhe sasinë e pajisjeve të nevojshme për të konkurruar. Shoku tjetër mund të jetë i afërt: një model i ri DeepSeek thuhet se është trajnuar ekskluzivisht në çipa nga prodhuesi kinez Huawei, i cili është nën sanksione të SHBA-së. Nëse është e vërtetë, më shumë kompani dhe studiues mund të kalojnë në harduerin e Huawei, veçanërisht në Kinë.
Raportime të tjera sugjerojnë se DeepSeek ka gjithashtu qasje në GPU-të Nvidia Blackwell të sanksionuara dhe vazhdon të trajnohet mbi to. Nën presionin e qeverisë kineze, DeepSeek është përpjekur për ca kohë të trajnohet mbi çipat Huawei, por sipas raporteve të vitit të kaluar, përpjekja dështoi për shkak të problemeve teknike, duke përfshirë performancën e paqëndrueshme dhe një zinxhir mjetesh softuerësh të papjekur. Në të njëjtën kohë, Nvidia ka marrë leje për të eksportuar përsëri çipa më të fuqishëm të inteligjencës artificiale në Kinë pas viteve të sanksioneve të rrepta. Kompanitë kineze janë të etura të blejnë, por udhëheqja e Kinës dëshiron të parandalojë një varësi të ripërtërirë .
Lëshimi i modeleve të veta të hapura të optimizuara posaçërisht për harduerin Nvidia krijon një kundërpeshë këtu – dhe, me kusht që Nvidia të mund të prodhojë modele vërtet konkurruese, një alternativë për kompanitë perëndimore. Ata që përdorin Nemotron dhe modelet e lidhura qëndrojnë brenda ekosistemit Nvidia. Kompania po synon gjithashtu një treg ku laboratorët kryesorë të IA-së kanë munguar kryesisht: robotika dhe aplikacione të tjera të IA-së në skaj .
Bryan Catanzaro, zv.president i Kërkimit të Mësimit të Thellë të Aplikuar në Nvidia, e tha këtë në mënyrë diplomatike për WIRED: “Ne jemi një kompani amerikane, por punojmë me kompani në të gjithë botën. Është në interesin tonë ta bëjmë ekosistemin të larmishëm dhe të fortë kudo.” Nvidia tashmë ka trajnuar paraprakisht një model me 550 miliardë parametra dhe ka publikuar modele të specializuara për robotikën, modelimin e klimës dhe palosjen e proteinave.
Kari Briski, zv.presidente e Generative AI Software, vuri në dukje një dimension tjetër strategjik: modelet shërbejnë gjithashtu për të testuar qendrat e të dhënave të Nvidia-s në shkallë superkompjuterësh dhe për të çuar përpara planin e saj të harduerit. “Ne e ndërtojmë atë për të shtrirë sistemet tona dhe për të testuar jo vetëm llogaritjen, por edhe ruajtjen dhe rrjetëzimin, dhe për të ndërtuar në një farë mënyre planin tonë të arkitekturës së harduerit”, tha ajo për WIRED.
