Anthropic i heq aksesin OpenAI-t në API-n e Claude, duke e akuzuar për shkelje në prag të lançimit të GPT-5

Në një përshkallëzim të garës së armatimit të inteligjencës artificiale, Anthropic i ka prerë aksesin rivalit OpenAI në modelet e tij Claude të martën, më 1 gusht. Anthropic pretendon se OpenAI shkeli kushtet e shërbimit duke përdorur API-në e Claude për të ndihmuar në zhvillimin e modelit të ardhshëm GPT-5.

Një zëdhënës i Anthropic i tha WIRED: “Fatkeqësisht, kjo është një shkelje e drejtpërdrejtë e kushteve tona të shërbimit.” OpenAI u kundërpërgjigj, me shefen e komunikimit, Hannah Wong, e cila e quajti praktikën “se është standard i industrisë të vlerësosh sisteme të tjera të inteligjencës artificiale për të krahasuar progresin dhe për të përmirësuar sigurinë”. Grindja publike ekspozon tensione të thella midis lojtarëve kryesorë të industrisë vetëm disa javë para lançimit të rrezikshëm të GPT-5.

Thelbi i mosmarrëveshjes qëndron në dy interpretime krejtësisht të ndryshme të praktikës së pranueshme konkurruese. Anthropic pretendon se OpenAI po përdorte akses të veçantë në API-në e zhvilluesve për qëllime të ndaluara shprehimisht nga kushtet e saj tregtare të shërbimit . Politika i ndalon klientët të përdorin shërbimin për të “ndërtuar një produkt ose shërbim konkurrues, duke përfshirë trajnimin e modeleve konkurruese të IA-së” ose për të “inxhinierizuar ose dublikuar” shërbimet.
Në një deklaratë për WIRED, zëdhënësi i Anthropic, Christopher Nulty, e lidhi drejtpërdrejt aktivitetin me lançimin e ardhshëm të madh të OpenAI, duke deklaruar: “Claude Code është bërë zgjedhja e preferuar për programuesit kudo, dhe për këtë arsye nuk ishte surprizë të mësohej se edhe stafi teknik i OpenAI po përdorte mjetet tona të kodimit përpara lançimit të GPT-5.” Ai përfundoi hapur: “Për fat të keq, kjo është një shkelje e drejtpërdrejtë e kushteve tona të shërbimit.”
Burimet konfirmojnë se OpenAI nuk po përdorte ndërfaqen standarde të bisedës publike, por në vend të kësaj po e lidhte Claude direkt me mjetet e saj të brendshme nëpërmjet API-t. Kjo i lejoi kompanisë të kryente teste të gjera duke vlerësuar aftësitë e Claude në kodim dhe shkrim krijues. Vlerësimet gjithashtu krahasuan mënyrën se si Claude iu përgjigj pyetjeve që lidheshin me sigurinë në lidhje me kategoritë e ndjeshme si vetëlëndimi dhe shpifja, duke i lejuar OpenAI të krahasonte sjelljen e modeleve të veta.
OpenAI nuk e kundërshton aktivitetin, por e paraqet atë si punë standarde dhe të nevojshme. Drejtoresha kryesore e komunikimit të kompanisë, Hannah Wong, e mbrojti praktikën si “standard të industrisë për të vlerësuar sisteme të tjera të IA-së për të krahasuar progresin dhe për të përmirësuar sigurinë”. Ajo shprehu zhgënjim me vendimin, duke shtuar: “Ndërsa ne e respektojmë vendimin e Anthropic për të ndërprerë aksesin tonë në API, është zhgënjyese duke pasur parasysh se API-ja jonë mbetet e disponueshme për ta”. Kjo mbrojtje e pozicionon veprimin si një aktivitet rutinë kërkimor dhe zhvillimor thelbësor për progresin në një fushë konkurruese.
Megjithatë, Anthropic sugjeron se problemi nuk është vetë krahasimi, por shkalla dhe qëllimi i përdorimit të OpenAI. Nulty sqaroi se Anthropic do të “vazhdojë të sigurojë që OpenAI të ketë akses në API për qëllime të krahasimit dhe vlerësimeve të sigurisë, siç është praktikë standarde”. Ky qëndrim i nuancuar nënkupton se Anthropic beson se veprimet e OpenAI kanë kaluar vijën nga vlerësimi i thjeshtë në zhvillimin konkurrues.
Edhe pse tronditëse në fushën e inteligjencës artificiale, përdorimi i aksesit në API si një levë konkurruese është një taktikë klasike e industrisë së teknologjisë. Kjo ngjan me lëvizjet e epokave të tjera, të tilla si ndërprerja e aksesit në API nga Facebook për Vine, në pronësi të Twitter, mes akuzave për sjellje antikonkurruese ose kufizimi i kohëve të fundit i konkurrentëve nga Salesforce për akses në të dhëna të caktuara përmes Slack API.
Ky përballje publike nuk është një incident i izoluar, por kapitulli më i fundit në një histori tensionesh në rritje, me startup-in e kodimit të inteligjencës artificiale Windsurf që shërben si një fushë beteje e kohëve të fundit. Masa për të bllokuar OpenAI pasqyron drejtpërdrejt një bllokim strategjik nga Anthropic vetëm dy muaj më parë , duke zbuluar një politikë të qëndrueshme dhe të ashpër kundër rivalit të saj kryesor.
Në qershor të vitit 2025, ndërsa qarkulluan thashetheme se OpenAI po blinte Windsurf për një shumë të raportuar prej 3 miliardë dollarësh, Anthropic ndërmori një veprim vendimtar. Ai i ndërpreu Windsurf aksesin e drejtpërdrejtë në modelet e saj të njohura të kodimit, Claude 3.5 Sonnet dhe Claude 3.7 Sonnet. Ky veprim ishte një akt i llogaritur sabotimi i korporatës, duke e detyruar startup-in të kërkonte ofrues të palëve të treta me një njoftim të shkurtër dhe duke krijuar atë që Windsurf e përshkroi si “paqëndrueshmëri afatshkurtër” të mundshme për përdoruesit e tij.
Qëllimi ishte i qartë: të ulte vlerën e asetit që OpenAI po përpiqej të blinte dhe të parandalonte konkurrentin e tij nga përfitimi indirekt nga teknologjia e Anthropic. Në një event të TechCrunch në atë kohë , bashkëthemeluesi dhe Drejtori i Shkencave të Anthropic, Jared Kaplan, ishte i drejtpërdrejtë në lidhje me motivet e kompanisë. Ai i tha audiencës: “Mendoj se do të ishte e çuditshme për ne që t’ia shisnim Claude OpenAI-t.”
Kaplan dha detaje mbi të menduarit strategjik të kompanisë, duke e formuluar vendimin si një shpërndarje të domosdoshme të burimeve të pakta. Ai shpjegoi se Anthropic është “mjaft i kufizuar në informatikë sot” dhe duhet të përparësojë atë që ai e karakterizoi si “partneritete të qëndrueshme”. Ai deklaroi: “Ne po përpiqemi vetëm t’u mundësojmë klientëve tanë që do të punojnë në mënyrë të qëndrueshme me ne në të ardhmen.”
Për të nënvizuar këtë pikë, Kaplan theksoi bashkëpunimin e vazhdueshëm të Anthropic me kompani të tjera të mjeteve të kodimit të inteligjencës artificiale si Cursor, me të cilat ai tha se Anthropic pret të punojë “për një kohë të gjatë”. Ky dallim tërheq një vijë të mprehtë: partnerët janë të mirëpritur, por çdo entitet që është gati të përthithet nga konkurrenti i tij kryesor do të përjashtohet.
Çështja Windsurf ishte një provë e qartë gjenerale për përballjen aktuale, më të drejtpërdrejtë. Logjika që Anthropic zbatoi ndaj një objektivi blerjeje nga OpenAI tani është zbatuar edhe ndaj vetë OpenAI. Kjo histori zbulon një model të qartë të Anthropic duke përdorur aksesin në API jo vetëm si një mjet komercial, por si një armë strategjike për të mbrojtur pozicionin e saj konkurrues dhe për të kontrolluar ekosistemin e ndërtuar rreth modeleve të saj të fuqishme.
Vendimi i Anthropic për të revokuar aksesin vjen në një moment veçanërisht të ndjeshëm, pikërisht kur OpenAI hyn në atë që shumë njerëz të brendshëm e përshkruajnë si një “krizë” të plotë. Kompania thuhet se është vetëm disa javë larg lançimit të modelit të saj të gjeneratës së ardhshme, GPT-5, në gusht. Ky publikim shihet si një moment kritik i së vërtetës për të ripohuar lidershipin e saj pas një periudhe trazirash të brendshme dhe një sërë gabimesh strategjike, përfshirë rrëzimin publik të blerjes së planifikuar të Windsurf prej 3 miliardë dollarësh.
Presioni mbi GPT-5 është i jashtëzakonshëm, veçanërisht pas pritjes së dobët të industrisë për GPT-4.5 , i cili u pa si një produkt që ofronte vetëm përmirësime margjinale. Prandaj, koha e lëvizjes së Anthropic duket shumë strategjike, potencialisht e destinuar të prishë përgatitjet përfundimtare të OpenAI për një produkt që thuhet se ka aftësi superiore kodimi – një fushë ku Anthropic i ka pozicionuar në mënyrë të qartë modelet e veta si liderë të tregut.
Kur lançoi serinë e saj Claude 4, Anthropic e pozicionoi Opus 4 si “modeli më i mirë i kodimit në botë”, një pretendim të cilin e mbështeti me rezultate kryesore në standardet kryesore të inxhinierisë së softuerëve.
Ky konflikt i drejtpërdrejtë vjen gjithashtu pas rregullimeve të fundit të platformës nga vetë Anthropic, duke sugjeruar një strategji më të gjerë për shtrëngimin e kontrollit. Më 28 korrik, kompania formalizoi kufijtë e rinj javorë të tarifave për shërbimin e saj Claude Code . Kjo ishte një përgjigje e drejtpërdrejtë ndaj javëve të tëra reagimesh të përhapura nga zhvilluesit, pasi kompania vendosi në heshtje kufizime kufizuese dhe të panjoftuara në mesin e korrikut, duke i lënë abonentët që paguajnë me rrjedha pune të ndërprera dhe atë që ata e quajtën një “kuti e zezë” kufizimesh përdorimi.
Në njoftimin e saj, Anthropic shpjegoi se politika e re ishte e nevojshme për të frenuar modelet e paqëndrueshme të përdorimit, duke përfshirë abonentët që e drejtojnë shërbimin “vazhdimisht në sfond, 24/7” dhe të tjerë që ndajnë ose rishisin llogaritë. Kompania vuri në dukje se disa raste ishin “shumë të kushtueshme për t’u mbështetur”, duke përmendur një rast ekstrem ku “një përdorues konsumoi dhjetëra mijëra në përdorimin e modelit në një plan prej 200 dollarësh”.
Kjo strategji më e gjerë e shtrëngimit të kontrolleve të platformave – së pari për qëndrueshmëri financiare dhe tani për mbrojtje konkurruese – nënvizon një treg në zhvillim e sipër dhe gjithnjë e më agresiv. Gara e armatimit të inteligjencës artificiale po përshkallëzohet pa pushim, me rivalë si Mark Zuckerberg i Meta-s që njoftojnë plane për të shpenzuar “qindra miliarda” në qendra të reja të të dhënave dhe xAI të Elon Musk që lançon modelin e saj të fuqishëm Grok 4. Në këtë mjedis me rreziqe të larta, qasja në teknologjinë rivale për krahasim është transformuar nga një normë prapa skenave në një fushë beteje publike.