Anthropic po kalon një muaj të jashtëzakonshëm
Anthropic ka ndërtuar identitetin e saj publik rreth idesë fituese se është kompania e kujdesshme e inteligjencës artificiale. Ajo publikon punime të detajuara mbi rrezikun e inteligjencës artificiale, punëson disa nga studiuesit më të mirë në këtë fushë dhe ka folur me zë të lartë për përgjegjësitë që vijnë me ndërtimin e një teknologjie kaq të fuqishme – aq të zëshme, sigurisht, saqë tani po e lufton atë me Departamentin e Mbrojtjes. Të martën, mjerisht, dikush atje harroi të shënonte një kuti.

Është, në mënyrë të veçantë, hera e dytë brenda një jave. Të enjten e kaluar, Fortune raportoi se Anthropic kishte bërë aksidentalisht publike gati 3,000 skedarë të brendshëm, duke përfshirë një draft postimi në blog që përshkruante një model të ri të fuqishëm që kompania nuk e kishte njoftuar ende.

Ja çfarë ndodhi të martën: Kur Anthropic nxori versionin 2.1.88 të paketës së tij softuerike Claude Code, aksidentalisht përfshiu një skedar që ekspozonte gati 2,000 skedarë kodi burimor dhe më shumë se 512,000 rreshta kodi – në thelb planin e plotë arkitektonik për një nga produktet e tij më të rëndësishme. Një studiues sigurie i quajtur Chaofan Shou e vuri re pothuajse menjëherë dhe postoi rreth kësaj në X. Deklarata e Anthropic për media të shumta ishte e shkujdesur në këto gjëra: “Ky ishte një problem i paketimit të publikimit i shkaktuar nga gabimi njerëzor, jo një shkelje e sigurisë.” (Në nivel të brendshëm, do të mendonim se gjërat ishin më pak të matura.)
Claude Code nuk është një produkt i vogël. Është një mjet i linjës së komandës që u lejon zhvilluesve të përdorin inteligjencën artificiale të Anthropic për të shkruar dhe modifikuar kodin dhe është bërë mjaftueshëm i fuqishëm për të shqetësuar rivalët. Sipas WSJ, OpenAI e hoqi nga tregu produktin e saj të gjenerimit të videove, Sora, vetëm gjashtë muaj pasi e lançoi atë për publikun për të rifokusuar përpjekjet e saj te zhvilluesit dhe ndërmarrjet – pjesërisht në përgjigje të momentit në rritje të Claude Code.
Ajo që u zbulua nuk ishte vetë modeli i inteligjencës artificiale, por skela e softuerit që e rrethonte atë – udhëzimet që i tregojnë modelit se si të sillet, cilat mjete të përdorë dhe ku janë kufijtë e tij. Zhvilluesit filluan të publikojnë analiza të hollësishme pothuajse menjëherë, me njërën që e përshkruante produktin si “një përvojë zhvilluesi të nivelit të prodhimit, jo vetëm një mbështjellës rreth një API-je”.
Nëse kjo rezulton të ketë rëndësi në ndonjë mënyrë të qëndrueshme është një çështje që është më mirë t’ua lihet zhvilluesve. Konkurrentët mund ta gjejnë arkitekturën mësimdhënëse; në të njëjtën kohë, fusha ecën me shpejtësi.
Sidoqoftë, diku në Anthropic, mund ta imagjinoni që një inxhinier shumë i talentuar e ka kaluar pjesën tjetër të ditës duke menduar në heshtje nëse ka ende një punë. Mund të shpresojmë vetëm se nuk është i njëjti inxhinier, ose ekip inxhinierik, nga fundi i javës së kaluar.
