Anthropic pranon se po teston një model të ri AI që përfaqëson një “hap të madh” në aftësi, pasi një rrjedhje e paqëllimshme e të dhënave zbuloi ekzistencën e tij

foto

Kompania e inteligjencës artificiale Anthropic po zhvillon dhe ka filluar testimin me klientët me akses të hershëm, një model të ri të inteligjencës artificiale më të aftë se çdo model që ka publikuar më parë, tha kompania, pas një rrjedhjeje të dhënash që zbuloi ekzistencën e modelit.

foto

Një zëdhënës i Anthropic tha se modeli i ri përfaqëson “një ndryshim të madh” në performancën e inteligjencës artificiale dhe është “më i aftë që kemi ndërtuar deri më sot”. Kompania tha se modeli aktualisht po testohet nga “klientët me akses të hershëm”.

foto

Përshkrimet e modelit u ruajtën pa dashje në një memorje të dhënash të aksesueshme publikisht dhe u rishikuan nga Fortune.

Një postim në blog që ishte i disponueshëm në një dyqan të dhënash të pasigurt dhe të kërkueshëm publikisht para mbrëmjes së së enjtes tha se modeli i ri quhet Claude Mythos dhe se kompania beson se paraqet rreziqe të pashembullta për sigurinë kibernetike.

E njëjta sasi dokumentesh të pasigurta dhe të zbulueshme publikisht zbuluan detaje të një samiti të planifikuar të CEO-ve në Evropë, vetëm me ftesë, që është pjesë e përpjekjes së kompanisë për të shitur modelet e saj të inteligjencës artificiale te klientët e mëdhenj të korporatave.

Laboratori i IA-së e la materialin, përfshirë atë që dukej të ishte një draft postimi në blog që njoftonte një model të ri, në një liqen të dhënash publike dhe të pasigurta, sipas dokumenteve të vendosura dhe të shqyrtuara veçmas nga Roy Paz, një studiues i lartë i sigurisë së IA-së në LayerX Security, një kompani sigurie kompjuterike dhe rrjeti, dhe Alexandre Pauwels, një studiues i sigurisë kibernetike në Universitetin e Kembrixhit.

Në total, dukej se kishte afër 3,000 asete të lidhura me blogun e Anthropic që nuk ishin publikuar më parë në faqet e lajmeve ose kërkimit të kompanisë, të cilat megjithatë ishin të arritshme publikisht në këtë memorje të dhënash, sipas Pauwels, të cilit Fortune i kërkoi të vlerësonte dhe të shqyrtonte materialin.

Pasi u informua për rrjedhjen e të dhënave nga Fortune të enjten, Anthropic hoqi mundësinë e publikut për të kërkuar në depon e të dhënave dhe për të nxjerrë dokumente prej tij.

Në një deklaratë të dhënë për Fortune, Anthropic pranoi se një “gabim njerëzor” në konfigurimin e sistemit të tij të menaxhimit të përmbajtjes çoi në aksesueshmërinë e draft postimit në blog. Materiali i pabotuar që ishte lënë në një depo të dhënash të pasigurt dhe të kërkueshme publikisht përshkruhej si “drafte të hershme të përmbajtjes të konsideruara për publikim”.

Përveç referimit te Mythos, postimi në blog diskutonte gjithashtu një nivel të ri modelesh të inteligjencës artificiale që thuhet se do të quhet Capybara. Në dokument, Anthropic thotë: “‘Capybara’ është një emër i ri për një nivel të ri modeli: më i madh dhe më inteligjent se modelet tona Opus – të cilat deri më tani ishin më të fuqishmet tona”. Capybara dhe Mythos duket se i referohen të njëjtit model themelor.

Aktualisht, Anthropic i tregton secilin prej modeleve të tij në tre madhësi të ndryshme: Versionet më të mëdha dhe më të afta të modelit janë të markës Opus; ndërsa versionet pak më të shpejta dhe më të lira, por më pak të afta, janë të markës Sonnet; dhe më të voglat, më të lira dhe më të shpejta quhen Haiku. Megjithatë, në postimin në blog, Anthropic e përshkruan Capybara-n si një nivel të ri modeli që është edhe më i madh dhe më i aftë se Opus, por edhe më i shtrenjtë.

“Krahasuar me modelin tonë më të mirë të mëparshëm, Claude Opus 4.6, Capybara merr rezultate dukshëm më të larta në testet e kodimit të softuerëve, arsyetimit akademik dhe sigurisë kibernetike, ndër të tjera”, tha kompania në blog.

Dokumenti thoshte gjithashtu se kompania kishte përfunduar trajnimin e Claude Mythos, të cilin postimi në blog e përshkruante si “modeli më i fuqishëm i inteligjencës artificiale që kemi zhvilluar ndonjëherë”.

Në përgjigje të pyetjeve në lidhje me postimin në blog, kompania pranoi trajnimin dhe testimin e një modeli të ri. “Ne po zhvillojmë një model për qëllime të përgjithshme me përparime domethënëse në arsyetim, kodim dhe siguri kibernetike”, tha një zëdhënës i Anthropic. “Duke pasur parasysh forcën e aftësive të tij, ne po jemi të kujdesshëm për mënyrën se si do ta publikojmë atë. Siç është praktikë standarde në të gjithë industrinë, ne po punojmë me një grup të vogël klientësh me qasje të hershme për të testuar modelin. Ne e konsiderojmë këtë model një ndryshim të madh dhe më të aftën që kemi ndërtuar deri më sot.”

Dokumenti që Fortune dhe ekspertët e sigurisë kibernetike shqyrtuan përbëhet nga të dhëna të strukturuara për një faqe interneti, të kompletuara me tituj dhe një datë publikimi, duke sugjeruar se ajo është pjesë e një lançimi të planifikuar të produktit. Ai përshkruan një strategji të kujdesshme të lançimit për modelin, duke filluar me një grup të vogël përdoruesish me akses të hershëm. Blogu draft vëren se modeli është i kushtueshëm për t’u përdorur dhe ende nuk është gati për publikim të përgjithshëm.

Modeli i ri i inteligjencës artificiale paraqet rreziqe të konsiderueshme për sigurinë kibernetike, sipas dokumentit të rrjedhur.

“Në përgatitje të publikimit të Claude Capybara, ne duam të veprojmë me kujdes shtesë dhe të kuptojmë rreziqet që ai paraqet – madje edhe përtej asaj që mësojmë në testimet tona. Në veçanti, ne duam të kuptojmë rreziqet e mundshme afatshkurtra të modelit në sferën e sigurisë kibernetike – dhe të ndajmë rezultatet për të ndihmuar mbrojtësit kibernetikë të përgatiten”, thuhej në dokument.

Anthropic duket se është veçanërisht i shqetësuar për implikimet e modelit në sigurinë kibernetike, duke vënë në dukje se sistemi është “aktualisht shumë më përpara se çdo model tjetër i inteligjencës artificiale në aftësitë kibernetike” dhe “parashikon një valë të ardhshme modelesh që mund të shfrytëzojnë dobësitë në mënyra që i tejkalojnë shumë përpjekjet e mbrojtësve”. Me fjalë të tjera, Anthropic është i shqetësuar se hakerat mund ta përdorin modelin për të kryer sulme kibernetike në shkallë të gjerë.

Kompania tha në blogun draft se për shkak të këtij rreziku, plani i saj për publikimin e modelit do të përqendrohej te mbrojtësit kibernetikë: “Po e publikojmë atë në akses të hershëm për organizatat, duke u dhënë atyre një avantazh në përmirësimin e qëndrueshmërisë së bazave të tyre të kodit kundër valës së afërt të shfrytëzimeve të drejtuara nga inteligjenca artificiale.”

Gjenerata më e fundit e modeleve të nivelit të lartë nga Anthropic dhe OpenAI ka kaluar një prag që, sipas kompanive, paraqet rreziqe të reja për sigurinë kibernetike. Në shkurt, kur OpenAI publikoi GPT-5.3-Codex, kompania tha se ishte modeli i parë që e kishte klasifikuar si “aftësi të lartë” për detyra që lidhen me sigurinë kibernetike sipas Kornizës së saj të Përgatitjes – dhe i pari që e kishte trajnuar drejtpërdrejt për të identifikuar dobësitë e softuerit.

Ndërkohë, Anthropic u përball me rreziqe të ngjashme me Opus 4.6 të saj, të lëshuar po atë javë. Modeli demonstroi një aftësi për të nxjerrë në pah dobësi të panjohura më parë në bazat e kodeve të prodhimit, një aftësi që kompania e pranoi se ishte me përdorim të dyfishtë, që do të thotë se mund të ndihmonte si hakerat, ashtu edhe mbrojtësit e sigurisë kibernetike të gjenin dhe mbyllnin dobësitë në kod.

Kompania ka raportuar gjithashtu se grupet e hakerimit, përfshirë ato të lidhura me qeverinë kineze, janë përpjekur ta shfrytëzojnë Claude në sulme kibernetike në botën reale. Në një rast të dokumentuar, Anthropic zbuloi se një grup i sponsorizuar nga shteti kinez kishte drejtuar tashmë një fushatë të koordinuar duke përdorur Claude Code për të infiltruar afërsisht 30 organizata – duke përfshirë kompani teknologjike, institucione financiare dhe agjenci qeveritare – përpara se kompania ta zbulonte atë. Gjatë 10 ditëve në vijim, Anthropic hetoi fushëveprimin e plotë të operacionit, ndaloi llogaritë e përfshira dhe njoftoi organizatat e prekura.

Rrjedhja e informacionit ende jo publik duket se rrjedh nga një gabim nga ana e përdoruesve të sistemit të menaxhimit të përmbajtjes (CMS) të kompanisë, i cili është softueri i përdorur për të publikuar blogun publik të kompanisë, sipas profesionistëve të sigurisë kibernetike.

Asetet dixhitale të krijuara duke përdorur sistemin e menaxhimit të përmbajtjes caktohen si publike si parazgjedhje dhe zakonisht u caktohet një URL e aksesueshme publikisht kur ngarkohen – përveç nëse përdoruesi ndryshon në mënyrë të qartë një cilësim në mënyrë që këto asete të mbahen private. Si rezultat, një memorje e madhe imazhesh, skedarësh PDF dhe skedarësh audio duket se janë publikuar gabimisht në një URL të pasigurt dhe të aksesueshme publikisht përmes sistemit të menaxhimit të përmbajtjes së gatshme.

Anthropic pranoi në një deklaratë për Fortune se “një problem me një nga mjetet tona të jashtme CMS çoi në aksesueshmërinë e përmbajtjes draft”. Ia atribuoi këtë problem “gabimit njerëzor”.

Shumë nga dokumentet dukeshin si asete të hedhura ose të papërdorura për postime të kaluara në blog, si imazhe, banderola dhe logo. Megjithatë, disa prej tyre dukeshin si dokumente që ishin menduar të ishin private ose të brendshme. Për shembull, një aset ka një titull që përshkruan “lejen prindërore” të një punonjësi.

Dokumentet përfshinin gjithashtu një PDF që përmbante informacione rreth një takimi të ardhshëm, vetëm me ftesë, për drejtuesit ekzekutivë të kompanive evropiane që do të mbahet në Mbretërinë e Bashkuar, dhe në të cilin do të marrë pjesë Drejtori Ekzekutiv i Anthropic, Dario Amodei. Emrat e pjesëmarrësve të tjerë nuk janë të listuar, por përshkruhen si udhëheqësit më me ndikim të biznesit në Evropë.

Takimi dy-ditor përshkruhet si një “mbledhje intime” për t’u angazhuar në “bisedë të menduar mirë” në një rezidencë të shekullit të 18-të të shndërruar në hotel dhe spa në fshatin anglez. Dokumenti thotë se pjesëmarrësit do të dëgjojnë nga ligjvënësit dhe politikëbërësit se si bizneset po e përvetësojnë inteligjencën artificiale dhe po përjetojnë aftësi të pazbuluara të Claude.

Një zëdhënës i Anthropic i tha Fortune se eventi “është pjesë e një serie eventesh të vazhdueshme që kemi organizuar gjatë vitit të kaluar. Ne mezi presim të mirëpresim liderët evropianë të biznesit për të diskutuar të ardhmen e inteligjencës artificiale.”