OpenAI po përshpejton fshehurazi projektin “Garlic” për të rregulluar mangësitë më të mëdha të ChatGPT-së
Pas publikimit të Gemini 3 nga Google, i cili shpejt u ngjit në krye të renditjes së LMArena AI, CEO i OpenAI, Sam Altman, i informoi punonjësit se po shpallte një “kod të kuq”. Qëllimi ishte të përmirësohej më tej ChatGPT për të konkurruar më mirë, sipas një raporti nga The Information. Tani, një raport pasues nga publikimi zbulon se kompania po zhvillon një model të ri në përgjigje, me emrin e koduar Garlic.

(Zbulim: Ziff Davis, kompania mëmë e ZDNET, ngriti një padi në prill 2025 kundër OpenAI, duke pretenduar se ajo kishte shkelur të drejtat e autorit të Ziff Davis në trajnimin dhe operimin e sistemeve të saj të inteligjencës artificiale.)

Drejtori Kryesor i Kërkimeve i OpenAI, Mark Chen, i informoi kolegët se Garlic ka performuar mirë në vlerësimet e kompanisë krahasuar me Gemini 3 dhe Opus 4.5 të Anthropic në detyrat që përfshijnë kodimin dhe arsyetimin, sipas raportit. Kjo është e rëndësishme sepse si Gemini 3 ashtu edhe Anthropic Opus 4.5, të publikuara muajin e kaluar, vendosin standarde të reja të industrisë, ku i pari kryeson në arsyetim dhe i dyti kryeson në kodim.
OpenAI nuk iu përgjigj menjëherë një kërkese për koment.
Chen shtoi gjithashtu se gjatë zhvillimit të Garlic, OpenAI trajtoi problemet me para-trajnimin, fazën fillestare të trajnimit në të cilën modeli fillon të mësojë nga një grup i madh të dhënash. Kompania e përqendroi modelin në lidhje më të gjera përpara se ta trajnonte atë për detyra më specifike. Këto ndryshime në para-trajnim i mundësojnë OpenAI të mbushë një model më të vogël me të njëjtën sasi njohurish që më parë ishte rezervuar për modelet më të mëdha, sipas vërejtjeve të Chen të cituara në raport.
Modelet më të vogla mund të jenë të dobishme për zhvilluesit pasi ato zakonisht janë më të lira dhe më të lehta për t’u vendosur — diçka që laboratori francez i inteligjencës artificiale Mistral e theksoi me publikimin e tij të fundit këtë javë. Për kompaninë që qëndron pas tij, një model më i vogël është më i lirë për t’u ndërtuar dhe vendosur. Hudhra nuk duhet ngatërruar me Shallotpeat, një model që Altman ia njoftoi stafit të saj në tetor, sipas një raporti të mëparshëm, gjithashtu nga The Information, i cili gjithashtu synonte të rregullonte gabimet në procesin e para-trajnimit.
Sa i përket kohës së pritjes së modelit, Chen i mbajti detajet të paqarta, duke thënë vetëm “sa më shpejt të jetë e mundur” në raport. Megjithatë, duke pasur parasysh kontekstin dhe nevojën urgjente të OpenAI për të qëndruar përpara, do të ishte e sigurt të supozohej se modeli mund të dalë në shitje në fillim të vitit të ardhshëm. Zhvillimet e bëra gjatë krijimit të Garlic tashmë i kanë lejuar kompanisë të vazhdojë me zhvillimin e modelit të saj të ardhshëm më të madh dhe më të mirë, tha Chen.
Kjo garë e ashpër midis Google dhe OpenAI mund t’i atribuohet pjesërisht konkurrencës së të dyve për të njëjtin sektor: konsumatorët.
Siç vuri në dukje Drejtori Ekzekutiv i Anthropic, Dario Amodei, në bisedë me Andrew Ross Sorkin gjatë Samitit DealBook të The New York Times të mërkurën, Anthropic nuk është në të njëjtën garë ose nuk përballet me një panik “të kodit të kuq” si konkurrentët e saj, sepse është e përqendruar në shërbimin e ndërmarrjeve dhe jo të konsumatorëve. Kompania sapo njoftoi se mjeti i saj i kodimit agjent Claude Code arriti 1 miliard dollarë në të ardhura nga qarkullimi, vetëm gjashtë muaj pasi u bë i disponueshëm për publikun.
