Anthropic rihap bisedimet me Pentagon pasi United States lëviz për të ndaluar mjetet AI Claude

foto

Anthropic është rikthyer në tryezën e negociatave me Departamentin e Mbrojtjes të SHBA-së, duke u përpjekur të shpëtojë një marrëdhënie që vetëm disa ditë më parë dukej e përfunduar.

foto

Bisedimet rifilluan pas një ndërprerjeje dramatike javën e kaluar që shkaktoi një reaksion zinxhir në të gjithë Uashingtonin dhe Silicon Valley. Presidenti Donald Trump urdhëroi agjencitë federale të ndalonin përdorimin e mjeteve të inteligjencës artificiale të Anthropic, dhe Sekretari i Mbrojtjes Pete Hegseth sinjalizoi se mund ta etiketonte kompaninë si një rrezik për zinxhirin e furnizimit për sigurinë kombëtare.

Ky veprim kërcënoi ta përjashtonte Anthropic nga një nga programet qeveritare më të ndjeshme dhe fitimprurëse të inteligjencës artificiale.

Tani, CEO Dario Amodei po përpiqet ta riparojë marrëveshjen.

Sipas raportimeve nga Financial Times, Amodei ka rihapur diskutimet me Emil Michael, nënsekretarin e mbrojtjes të Pentagonit për kërkimin dhe inxhinierinë. Të dyja palët po përpiqen të arrijnë një marrëveshje të fundit që do të përcaktonte se si ushtria amerikane mund të hyjë dhe të vendosë modelet Claude të Anthropic.

“Dario Amodei po zhvillon diskutime me zëvendësin e Pete Hegseth për të arritur një kompromis mbi përdorimin ushtarak të teknologjisë”, raportoi The Financial Times.

foto

Prishja e situatës të premten e kaluar erdhi pas muajsh tensionesh mbi atë se sa larg duhet të shkojë përdorimi ushtarak i teknologjisë së kompanisë.

Anthropic kishte siguruar më parë një kontratë prej 200 milionë dollarësh që e bëri Claude modelin e parë të madh të inteligjencës artificiale të vendosur brenda rrjeteve të klasifikuara të qeverisë amerikane. Marrëveshja shënoi një moment të rëndësishëm për kompaninë, e themeluar në vitin 2021 nga ish-studiues të OpenAI të cilët e pozicionuan startup-in si një alternativë të fokusuar në siguri në garën e inteligjencës artificiale.

Partneriteti filloi të shpërbëhej ndërsa negociatat u kthyen në kufizime se si ushtria mund ta përdorte Claude-in.

Anthropic kërkoi garanci se modelet e saj nuk do të përdoren për mbikëqyrje të brendshme ose sisteme autonome armësh. Pentagoni kundërshtoi, duke këmbëngulur që ushtria duhet të ruajë aftësinë për të aplikuar teknologjinë për çdo mision të ligjshëm.

Debati arriti në një pikë kulmore për shkak të një rreshti të vetëm gjuhësor.

Në një memo për punonjësit, të parë nga Financial Times, Amodei tha se zyrtarët e Pentagonit kishin ofruar të pranonin masat mbrojtëse të propozuara nga Anthropic nëse kompania hiqte një “frazë specifike në lidhje me ‘analizën e të dhënave të fituara në masë’”.

Ai u tha stafit se formulimi ngriti alarmin brenda kompanisë.

Fraza, shkroi Amodei, “përputhej saktësisht me këtë skenar për të cilin ishim më të shqetësuar”.

Ngërçi u përshkallëzua shpejt në një përplasje publike midis zyrtarëve qeveritarë dhe udhëheqësve të Inteligjencës Artificiale.

Michael, zyrtari i Pentagonit që drejtonte bisedimet, më parë e kishte sulmuar ashpër Amodein për X-in, duke e quajtur atë një “gënjeshtar” me një “kompleks të Zotit”. Sulmi jashtëzakonisht i drejtpërdrejtë nënvizoi se sa i nxehtë ishte bërë mosmarrëveshja brenda Uashingtonit.

Në të njëjtin moment, Anthropic e gjeti veten në mes të një rivaliteti në zgjerim me konkurrentin e saj më të afërt.

Brenda pak orësh pasi Shtëpia e Bardhë kritikoi Anthropic, OpenAI njoftoi një marrëveshje të re me Departamentin e Mbrojtjes. Koha tërhoqi vëmendjen në të gjithë industrinë e teknologjisë dhe shkaktoi një valë reagimesh të ashpra në internet.

Aplikacioni Claude i Anthropic thuhet se pati një rritje të shkarkimeve ndërsa përdoruesit reaguan ndaj polemikave. Raportet treguan se ChatGPT përjetoi një rritje të çinstalimeve gjatë së njëjtës periudhë.

Drejtori ekzekutiv i OpenAI, Sam Altman, më vonë pranoi tensionin që rrethonte marrëveshjen.

Kompania e tij “nuk duhej të kishte nxituar” me marrëveshjen me Pentagonin, tha Altman, dhe ai përshkroi masa të reja mbrojtëse që rregullojnë mënyrën se si Departamenti i Mbrojtjes mund t’i përdorë sistemet e tij.

Altman më vonë iu drejtua debatit Antropik drejtpërdrejt te X.

“Në bisedat e mia gjatë fundjavës, përsërita se Anthropic nuk duhet të përcaktohet si [rrezik i zinxhirit të furnizimit] dhe se shpresojmë që [Departamenti i Mbrojtjes] t’u ofrojë atyre të njëjtat kushte me të cilat kemi rënë dakord”, shkroi Altman.

Konfrontimi nxjerr në pah një përçarje më të thellë brenda industrisë së inteligjencës artificiale mbi atë se sa ngushtë duhet të bashkëpunojnë kompanitë me ushtrinë.

Anthropic ka promovuar prej kohësh një filozofi që vendos sigurinë në radhë të parë, e cila vendos kufizime në disa zbatime të teknologjisë së saj. Disa zyrtarë brenda Uashingtonit janë frustruar me këtë qëndrim, duke argumentuar se qeveria nuk mund të mbështetet te kompanitë që vendosin kufizime mbi mjetet e sigurisë kombëtare, raportoi CNBC.

Mosmarrëveshja tërhoqi vëmendjen nga i gjithë sektori i teknologjisë.

Një grup i madh industrial, anëtarët e të cilit përfshijnë Nvidia, Google dhe Anthropic, i dërgoi një letër Hegseth më herët këtë javë duke e paralajmëruar kundër etiketimit të një kompanie amerikane të inteligjencës artificiale si një rrezik për zinxhirin e furnizimit.

Një veprim i tillë mund të riformësojë peizazhin konkurrues të industrisë së inteligjencës artificiale, veçanërisht ndërsa Pentagoni rrit shpenzimet për modelet e përparuara dhe aplikacionet e sigurisë kombëtare.

Rreziqet janë të mëdha. Kontratat e mbrojtjes ofrojnë qasje në financim, infrastrukturë të klasifikuar dhe partneritete afatgjata që mund të formësojnë fazën tjetër të zhvillimit të inteligjencës artificiale.

Rezultati i bisedimeve do të përcaktojë nëse Claude i Anthropic do të mbetet i integruar brenda sistemeve qeveritare apo nëse një nga rivalët e tij do ta marrë atë rol në vend të tij.