Përplasja e Anthropic me Pentagon ka të bëjë me më shumë sesa vetëm rregullat mbrojtëse të AI

foto

Ndërsa Pentagoni po ushtronte presion mbi Anthropic PBC që të hiqte barrierat mbrojtëse mbi mjetet e saj të fuqishme të inteligjencës artificiale, një zyrtar i lartë i mbrojtjes amerikane i paraqiti një skenar hipotetik drejtorit ekzekutiv të kompanisë, Dario Amodei, i cili është i vetëdijshëm për sigurinë.

Po sikur një raketë balistike ndërkontinentale e pajisur me armë bërthamore të fluturonte drejt SHBA-së vetëm 90 sekonda para fundit, dhe inteligjenca artificiale e Anthropic do të ishte e vetmja mënyrë për të shkaktuar një përgjigje raketore për të shpëtuar vendin, por masat mbrojtëse të kompanisë nuk do ta lejonin këtë, mendoi zyrtari i lartë në një telefonatë në dhjetor.

“Më telefononi”, ishte mënyra se si zyrtarët e Pentagonit e interpretuan përgjigjen e Amodeit, sipas një zyrtari tjetër të lartë të mbrojtjes të informuar mbi diskutimin, i cili përshkroi se u habit nga përgjigjja e miliarderit.

Perspektiva e gjurmimit të Presidentit Donald Trump dhe çantës së tij me kode bërthamore – dhe një burri në krye të një kompanie private prej 380 miliardë dollarësh që është në ballë të inteligjencës artificiale – përfaqëson një ndryshim të paimagjinueshëm në strategjinë bërthamore. Gjithashtu, kjo nxjerr në pah debatin global në rritje se ku duhen vendosur kufijtë në përdorimin e një teknologjie që është ende në zhvillim e sipër dhe mbetet e prirur ndaj gabimeve.

Një zëdhënës i Anthropic hodhi poshtë përshkrimin e zyrtarit të Pentagonit për thirrjen e dhjetorit, të raportuar më parë nga Semafor, si “qartësisht të rremë. Dario nuk e tha këtë dhe çdo përsëritje e gjuhës sonë të propozuar të kontratës do t’u mundësonte modeleve tona të mbështesin mbrojtjen nga raketat dhe përdorime të ngjashme”, tha zëdhënësi.

Gjatë asaj telefonate, Anthropic pranoi se Departamenti i Mbrojtjes mund të përdorë mjetet e tij të inteligjencës artificiale për mbrojtjen nga raketat dhe operacionet kibernetike, sipas një personi të njohur me çështjen. I pakënaqur, Pentagoni vazhdon të ushtrojë presion mbi Anthropic që të lehtësojë më tej rregullat e përdorimit të tij në një mosmarrëveshje që ka zgjatur për të paktën dy muaj.

Në një takim të tensionuar të martën midis Amodei, i cili mbështeti Kamala Harris gjatë fushatës presidenciale të vitit 2024, dhe Pete Hegseth, shefit të ashpër të Pentagonit të Trump, i cili është zotuar për një luftë kundër gjithçkaje që ka ndodhur, sekretari i mbrojtjes kërcënoi të përdorë një ligj të vitit 1950 të miratuar për të detyruar bazën industriale të Amerikës të furnizojë mallra të tilla si metale dhe mjete makinerie gjatë Luftës Koreane, përveç nëse kompania i jep Pentagonit liri të plotë për të bërë çfarë të dojë me mjetet e tij të inteligjencës artificiale, brenda kufijve ligjorë.

foto

Përballja e tyre ka ekspozuar mbështetjen e Departamentit të Mbrojtjes te Anthropic në një rivalitet ushtarak kokë më kokë me kundërshtarët e SHBA-së, përfshirë Kinën. Megjithatë, beteja gjithashtu amplifikon tensionin midis Silicon Valley dhe Pentagonit mbi atë se kush e kontrollon të ardhmen e Inteligjencës Artificiale si një mjet lufte dhe mbikëqyrjeje, duke përfshirë edhe nëse teknologjia që evoluon me shpejtësi mund të përdoret në një mënyrë të ligjshme.

“Mbrojtjet kushtetuese në strukturat tona ushtarake varen nga ideja se ka njerëz që – shpresojmë – nuk do t’u bindeshin urdhrave të paligjshëm. Me armë plotësisht autonome, nuk i kemi domosdoshmërisht këto mbrojtje”, tha Amodei në një podcast të New York Times më parë këtë muaj, duke shprehur shqetësime se nuk ka mbikëqyrje të mjaftueshme se si mund të përdoret IA në tufat autonome të dronëve. “Në disa mënyra, ne kemi nevojë të mbrohemi nga IA.”

Amodei dhe ekipi i tij kanë treguar pak qëllim për t’u tërhequr dhe këmbëngulin se janë në anën e duhur të historisë. Vetëm muajin e kaluar, Amodei dha paralajmërime të tmerrshme rreth kërcënimit që paraqesin armët plotësisht autonome dhe rreziqeve që IA mund të përfundojë duke spiunuar pikërisht njerëzit që duhet të mbrojë. Hegseth po kërkon që Anthropic të heqë dorë nga këto dy parime për të lejuar Pentagonin të vendosë IA ushtarake të papenguar nga kërkesat e sigurisë së kompanisë.

foto

Nëse Anthropic refuzon të dorëzohet deri të premten, Hegseth e paralajmëroi Amodei-n se do të përdorë Aktin e Prodhimit të Mbrojtjes për ta detyruar Anthropic të ofrojë mjetet e saj të inteligjencës artificiale pa asnjë detyrim, sipas njerëzve të njohur me çështjen. Një mosrespektim i këtij ligji mund ta bëjë Pentagonin ta shpallë kompaninë një rrezik për zinxhirin e furnizimit. Kjo do t’u kërkonte shitësve të tillë si Palantir Technologies Inc., e cila përdor Anthropic në platformën e saj të menaxhimit të betejave të quajtur Maven Smart System, të certifikojnë se nuk përdorin modelet e kompanisë.

Një zyrtar i lartë i mbrojtjes konfirmoi se departamenti i kishte dërguar ofertën e tij përfundimtare Anthropic të mërkurën. Zëdhënësi i Pentagonit, Sean Parnell, bëri publik të enjten kërcënimin e SHBA-së për ta përjashtuar në mënyrë efektive Anthropic nga zinxhiri i furnizimit të ushtrisë, nëse nuk do të binte dakord me kushtet e zyrtarëve të mbrojtjes. “Ne nuk do të lejojmë ASNJË kompani të diktojë kushtet në lidhje me mënyrën se si marrim vendime operacionale”, shkroi Parnell në një postim në X. “Ata kanë kohë deri në orën 5:01 pasdite ET të premten për të vendosur. Përndryshe, ne do ta ndërpresim partneritetin tonë me Anthropic dhe do ta konsiderojmë atë një rrezik për zinxhirin e furnizimit.”

Një veprim i tillë mund t’i japë një goditje shkatërruese përpjekjeve të Anthropic për të fituar biznes me qeverinë. Veprime të tilla të ashpra zakonisht rezervohen për kompanitë që konsiderohen si kundërshtare të SHBA-së, të tilla si Huawei Technologies Co. e Kinës dhe Kaspersky e Rusisë, thotë Alan Rozenshtein, profesor i asociuar i drejtësisë në Fakultetin e Drejtësisë të Universitetit të Minesotës, i cili shkruan për inteligjencën artificiale dhe tema të tjera ushtarake.

Kërcënimet nga Pentagoni për ta tërhequr Anthropic nga zinxhiri i furnizimit janë “krejtësisht të papërshtatshme”, tha ai në një intervistë, duke shtuar se është gjithashtu “thellësisht idiote” duke pasur parasysh se Anthropic është ndër shpresat më të mëdha që Amerika të qëndrojë përpara në garën e inteligjencës artificiale.

foto

Megjithatë, Rozenshtein pranoi se edhe Pentagoni ka të drejtë: zyrtarët e mbrojtjes nuk duan të diktohen se si të trajtojnë skenarë potencialë betejash për jetë a vdekje, ose të varen nga softuerë komercialë që i nënshtrohen tekave të pronarëve miliarderë idealistë. Të mërkurën, Axios raportoi se Pentagoni u kishte kërkuar kontraktorëve Boeing Co. dhe Lockheed Martin Corp. të jepnin vlerësime mbi varësinë e tyre nga produktet Anthropic, një hap i parë i mundshëm drejt etiketimit të kompanisë si një rrezik për zinxhirin e furnizimit.

Mosmarrëveshja po merr formë ndërsa ushtritë në të gjithë botën garojnë për të gjetur mënyra për të përvetësuar inteligjencën artificiale. Ajo qëndron në zemër jo vetëm të mënyrës se si do të dërgohet inteligjenca artificiale në luftë, por edhe nëse kompanitë e mëdha mund t’i përballojnë kërkesat e një administrate të ashpër të MAGA-s dhe prapëseprapë të arrijnë të rrisin biznesin e tyre qeveritar dhe komercial.

Problemet më të fundit të Anthropic u përshkallëzuan kur Departamenti i Mbrojtjes filloi të përgatiste strategjinë e tij të re ushtarake për inteligjencën artificiale , të publikuar muajin e kaluar.

Edhe pse Pentagoni është përpjekur të zhvillojë dhe të vendosë inteligjencën artificiale për 60 vjet, administrata Trump tani po kërkon të përshpejtojë miratimin e saj për gjithçka, nga planifikimi i fushatave deri te të ashtuquajturat “zinxhirë vrasës”, sipas përpjekjes së re.

Strategjia e re e Pentagonit për inteligjencën artificiale premton gjithashtu të zhdukë “idealizmin utopik” kur bëhet fjalë për të ashtuquajturën inteligjencë artificiale të përgjegjshme. Disa drejtues të industrisë së mbrojtjes e interpretojnë këtë si një paralajmërim të fshehur paksa për Anthropic.

Amodei, i cili bashkëthemeloi kompaninë pasi u nda nga OpenAI për shkak të shqetësimeve për sigurinë, e ka ndërtuar biznesin e tij bazuar në parime që i ka shpjeguar në ese të gjata publike. “Nëse duam që IA të favorizojë demokracinë dhe të drejtat individuale, do të duhet të luftojmë për këtë rezultat”, shkroi ai në tetor 2024.

Ai ka argumentuar se një koalicion demokracish duhet të përdorë inteligjencën artificiale për të arritur “superioritet të fuqishëm ushtarak”, duke paralajmëruar se inteligjenca artificiale gjithashtu duket se do të mundësojë propagandë dhe mbikëqyrje shumë më të mirë, të cilat ai i përshkroi si “të dyja mjete kryesore në çantën e mjeteve të autokratit”.

Kohët e fundit, në janar, Amodei kritikoi rreziqet e “armëve plotësisht autonome”, duke sjellë në mendje një imazh të miliona dronëve të armatosur të kontrolluar nga inteligjenca artificiale dhe duke pohuar se përdorime të caktuara “duhet të konsiderohen krime kundër njerëzimit”. Ai gjithashtu paralajmëroi kundër mbikëqyrjes dhe propagandës së inteligjencës artificiale nga qeveritë autoritare, përfshirë Kinën, ndërsa argumentoi se ekziston rreziku që demokracitë e armatosura me teknologjinë “të kthehen kundër nesh”.

Megjithatë, strategjia e re e Pentagonit mbyll hapësirën për kritikët, duke përfshirë një kërkesë që departamenti duhet të përdorë modele të inteligjencës artificiale “të lira nga kufizimet e politikave të përdorimit që mund të kufizojnë aplikimet e ligjshme ushtarake”.

foto

Hegseth gjithashtu udhëzoi Pentagonin që të përcaktonte standarde për objektivitetin e modelit si kriter kryesor të prokurimit brenda 90 ditëve, dhe që nënsekretari i luftës për blerjen dhe mbështetjen të përfshinte gjuhën standarde të “çdo përdorimi të ligjshëm” në çdo kontratë të Pentagonit përmes së cilës prokurohen shërbimet e IA-së brenda 180 ditëve.

Të gjitha këto dispozita sfidojnë drejtpërdrejt Anthropic, e cila ka politikën më të kufizuar të përdorimit nga të gjitha kompanitë e inteligjencës artificiale që punojnë në aplikacionet ushtarake amerikane dhe detajon një mori kufizimesh që synojnë të parandalojnë dëmin më të gjerë shoqëror.

Që nga shtatori, kur kompania përditësoi së fundmi politikën e saj të përdorimit publik , këto kufizime kanë vazhduar të përfshijnë parime thelbësore si “Mos zhvilloni ose projektoni armë” dhe “Mos kompromentoni sistemet kompjuterike ose të rrjetit”.

Megjithatë, ka shenja se angazhimet e sigurisë të vetë Anthropic po bien. Kompania thotë se mund të “përshtasë” kufizimet e përdorimit për kontrata të caktuara qeveritare, por nuk ka bërë publike se çfarë ka pranuar tashmë në mënyrë që t’i lejojë ushtrisë të përdorë mjetet e saj të inteligjencës artificiale.

Udhëheqësi i ekipit të kërkimit të masave mbrojtëse të Anthropic u largua nga kompania në fillim të këtij muaji, duke thënë se sa e vështirë është të lejosh që vlerat e kompanisë të qeverisin veprimet e saj dhe se punonjësit “përballen vazhdimisht me presione për të lënë mënjanë atë që ka më shumë rëndësi”. Dhe të martën, kompania njoftoi se kishte zbutur politikën e saj qendrore të sigurisë , duke thënë se, për të mbetur konkurruese, nuk do ta vonojë më publikimin e zhvillimit të inteligjencës artificiale që mund të jetë i rrezikshëm, duke hequr dorë nga një standard që e ka mbajtur që nga viti 2023.

Paralajmërimet e Amodei-t rreth rreziqeve të inteligjencës artificiale dhe thirrjet e tij për rregullim kanë kërkuar gjetjen e një ekuilibri midis biznesit të mbrojtjes së kompanisë së tij dhe mbështetjes për sigurinë kombëtare. Anthropic ishte kompania e parë gjeneruese e inteligjencës artificiale që arriti një marrëveshje me Pentagonin, përfshirë edhe për cloud-in e klasifikuar, dhe thuhet se u përdor gjatë operacionit amerikan për të kapur udhëheqësin e fortë të Venezuelës, Nicolas Maduro . Ndryshe nga kompanitë rivale të inteligjencës artificiale që ende nuk punojnë në cloud-in e klasifikuar, ky biznes e ekspozon Anthropic ndaj llojeve të rreziqeve për të cilat Amodei është më i shqetësuar.

foto

Në gjysmën e dytë të vitit 2024, kompania negocioi një marrëveshje me Pentagonin që mjetet e saj të inteligjencës artificiale të përdoreshin nga Sistemi Maven Smart i Palantir, një platformë menaxhimi beteje e mundësuar nga inteligjenca artificiale, sipas një ish-zyrtari të mbrojtjes të njohur me çështjen. Në atë kohë, përdorimi ishte përqendruar kryesisht në detyra të thjeshta të chatbot-eve, siç është përmbledhja e përmbajtjes, shtoi ish-zyrtari.

Që atëherë, Maven Smart System ka zgjeruar përdorimin e inteligjencës artificiale gjeneruese, dhe Anthropic ka arritur gjithashtu një marrëveshje pilot të veçantë në korrik 2025 me Zyrën Kryesore Dixhitale dhe të Inteligjencës Artificiale të Pentagonit për përdorim me një bazë prej 2 milionë dollarësh dhe një kufi prej 200 milionë dollarësh. Të dhënat e mbledhura nga Bloomberg Government tregojnë se Pentagoni i pagoi kompanisë vetëm 2 milionë dollarë vitin e kaluar.

Por, ndërsa Anthropic mbështetet kryesisht te klientët komercialë, ajo gjithashtu e ka bërë të qartë se dëshiron ta zgjerojë me shpejtësi biznesin e saj qeveritar. Në shtator, kompania mbajti atë që një pjesëmarrës e përshkroi si një ngjarje masive në Union Station në Uashington për të mbledhur mbështetje për punën e saj në sektorin publik.

Këtë muaj, Anthropic nënshkroi marrëveshjen e parë që Departamenti i Shtetit të përdorë Claude, megjithëse me 19,000 dollarë vlera për momentin mbetet e papërfillshme. Kompania gjithashtu arriti një marrëveshje të gjerë me Administratën e Shërbimeve të Përgjithshme që agjencitë qeveritare federale të përdorin Claude për një tarifë nominale prej 1 dollari vitin e kaluar.

Elementi më i madh i kërcënimit të Hegseth nuk është kontrata ekzistuese prej 200 milionë dollarësh me Pentagonin, por potenciali i heqjes së Anthropic nga zinxhiri i furnizimit.

“Në skenarin më të keq, kjo mund ta bënte Anthropic një kompani të dështuar për një segment të tërë të madh të ekonomisë amerikane dhe mund të ishte pothuajse fatale për biznesin e tyre”, tha të martën për Bloomberg Television Gregory Allen, një këshilltar i lartë në Qendrën për Studime Strategjike dhe Ndërkombëtare, i cili më parë ka punuar në dyqanin e inteligjencës artificiale të Pentagonit .

Allen tha se komuniteti i përdoruesve ushtarakë të Claude “vërtet e pëlqen atë që po merr” dhe nuk është ankuar kurrë më parë për kundërshtimin e kufizimeve të kompanisë. Pavarësisht muajve të fërkimit të zgjatur gjatë negociatave, Pentagoni ka vazhduar të përdorë Anthropic në operacione.

Një punonjës i Pentagonit, i njohur me Claude, thotë se baza e kodit të tij është më e lehtë për t’u trajtuar se të tjerat, duke i bërë ndryshimet e minutës së fundit më të lehta, më të shpejta dhe më të besueshme. Por kjo nuk do të thotë që rivalët nuk do ta arrijnë, ose se Pentagoni nuk do të duronte një partner më të dobët ndërsa inteligjenca e tyre artificiale përmirësohet, shtoi punonjësi i Pentagonit, duke e përshkruar një fluks të ri kontratash të inteligjencës artificiale në mbrojtje si një garë armatimesh.

Në prag të takimit të Amodei me Hegseth dhe togerët e tij më të lartë të inteligjencës artificiale, Departamenti i Mbrojtjes arriti një marrëveshje me xAI të Elon Musk për të përdorur chatbot-in e saj Grok në rrjetet e mbrojtjes nga cloud-i i klasifikuar. Pentagoni gjithashtu i është drejtuar përsëri OpenAI-t për ta vendosur inteligjencën e saj artificiale në cloud-in e klasifikuar në javët e fundit, sipas dy personave të njohur me çështjen.

Heqja dhe zëvendësimi i Claude nga sistemet e Pentagonit do ta vononte përdorimin e inteligjencës artificiale nga qeveria amerikane për sigurinë kombëtare me të paktën gjashtë muaj, tha një person i njohur me çështjen që punon në këtë fushë. Kjo për shkak se ofruesit e tjerë të modeleve do të vinin nga prapa, shtoi personi.

Anthropic është gjithashtu i bindur se përdoruesit i kuptojnë politikat e kompanisë, sipas personit të njohur me mënyrën se si kompania bashkëpunon me ushtrinë dhe operatorët partnerë. Por pavarësisht se çfarë mund të thotë politika e saj e përdorimit ose aftësia e saj për të audituar se si përdoret softueri i saj, kompania nuk do të ishte kurrë në dijeni të të gjitha detajeve se si u vendos inteligjenca artificiale e saj në operacione të klasifikuara dhe në kohë reale, tha punonjësi i Pentagonit.

Një nga arsyet pse kompani të tilla si Anthropic detyrohen të pohojnë politikën e tyre të përdorimit të inteligjencës artificiale është sepse Kongresi nuk ka arritur të përcaktojë se si duhet të mendojë Pentagoni për përdorimin e inteligjencës artificiale në sistemet e armëve, tha Rozenshtein.

Ai argumentoi se aparati politik dhe ushtarak i administratës së dytë Trump ka treguar gjithashtu një ngurrim për të ushtruar veprime të ligjshme me kujdes dhe mençuri. Disa senatorë, aktivistë të të drejtave të njeriut dhe ish-zyrtarë ushtarakë kanë vënë në pikëpyetje nëse sulmet vdekjeprurëse të Pentagonit kundër anijeve në Karaibe – përfshirë një që vrau dy të mbijetuar të anijeve të mbytura – dhe bastisja e Maduros, ishin të ligjshme sipas ligjeve ndërkombëtare dhe amerikane.

«Nuk jam i sigurt nëse ndonjë kompani mund të ketë besim nëse produktet e saj do të përdoren ligjërisht nën këtë Pentagon», tha Jon Wolfsthal, ekspert i kontrollit të armëve në Qendrën për një Siguri të Re Amerikane, i cili më parë shërbeu në administratën Obama. «Vendosja e një ultimatumi në këtë mënyrë ka të ngjarë të minojë besimin e publikut dhe të korporatave në udhëheqjen e Departamentit të Mbrojtjes».

Ndërsa hezitimet e Anthropic po tërheqin vëmendjen, të gjithë prodhuesit e armëve ofrojnë udhëzime se si sistemet mund të përdoren në mënyrë të besueshme përpara se të ketë gjasa të dështojnë, dhe një nga pikat kryesore të Amodei është se IA nuk është gati për përdorim të besueshëm të autonomisë. Qëndrimi i tij vjen gjithashtu në një kohë kur drejtorët e tjerë kryesorë të teknologjisë kanë joshur në mënyrë aktive administratën Trump dhe kanë zbutur politikat e tyre se si IA mund të aplikohet në luftime.

Disa nga këta rivalë tashmë po përpiqen. Bloomberg ka raportuar më parë se OpenAI dhe xAI këtë vit nënshkruan një kontratë pune në një sfidë çmimesh prej 100 milionë dollarësh nga Pentagoni për të prodhuar softuer për të fluturuar tufa dronësh autonome potencialisht vdekjeprurëse, duke ofruar teknologji që do të përkthejë komandat zanore në udhëzime dixhitale në rastin e OpenAI .

Kjo pavarësisht sigurimeve të drejtorit ekzekutiv të OpenAI, Sam Altman, vitin e kaluar në një konferencë kushtuar konfliktit modern, se “nuk mendoj se pjesa më e madhe e botës dëshiron që IA të marrë vendime për armët”. Në rastin e xAI, për të cilën Bloomberg ka raportuar se është partnerizuar me pronarin e saj të ri SpaceX, të dy kompanitë do të prodhojnë edhe teknologji për fluturime me dronë.

foto

Për një kompani që tani fiton 14 miliardë dollarë të ardhura vjetore nga norma e interesit, humbja e mundshme e një kontrate prej 200 milionë dollarësh nuk ka gjasa të dëmtojë bazën e saj financiare. Megjithatë, një marrëdhënie e përkeqësuar me qeverinë amerikane rrezikon të pakësojë të ardhura të konsiderueshme federale në planin afatgjatë, dhe mosmarrëveshja mund të rrezikojë gjithashtu marrëdhënien e Anthropic me Palantir, gjë që do të ishte një goditje edhe më e madhe.

Anthropic ka shkaktuar zemërim edhe në administratë me kundërshtimin publik të Amodei-t ndaj vendimit të Trump për të lejuar Nvidia Corp. të shesë çipat e saj të inteligjencës artificiale H200 në Kinë. Gjatë një interviste me Bloomberg në Davos muajin e kaluar, Amodei e karakterizoi këtë veprim si një gabim të madh. “Do të ishte një gabim i madh të dërgoheshin këto çipa,” tha ai. “Është pak si t’i shesësh armë bërthamore Koresë së Veriut.”

Kompania gjithashtu ka sfiduar Trumpin me thirrjet e saj për rregullimin e inteligjencës artificiale, duke u përplasur me përpjekjet e Carit të Inteligjencës Artificiale të Shtëpisë së Bardhë, David Sacks, për të miratuar një moratorium mbarëkombëtar mbi rregullat në nivel shtetëror. Kjo luftë tani po përhapet në zgjedhjet e mesit të mandatit në SHBA, ku Anthropic ka premtuar 20 milionë dollarë për një grup avokimi politik të quajtur Public First, i cili mbështet kandidatët e Kongresit që favorizojnë parmakët mbrojtës të inteligjencës artificiale.

Anthropic gjithashtu nuk është treguar i turpshëm të shfaqë ngjyrat e saj politike. Disa nga të punësuarit e kompanisë për dyqanin e saj të politikave janë veteranë të administratës Biden, përfshirë Ben Buchanan, Tarun Chhabra dhe Aditi Kumar, dhe Amodei ishte një mbështetës i zëshëm i Harris në garën presidenciale të vitit 2024.

E megjithatë, kompania është përpjekur kohët e fundit të sjellë në gjirin e saj zyrtarë të afërt me Trumpin, duke përfshirë emërimin e Chris Liddell, një ish-zyrtar i Shtëpisë së Bardhë nga mandati i parë i Trumpit, në bordin e saj dhe duke kërkuar investime nga 1789 Capital, një firmë sipërmarrëse pro-Trump ku njëri nga djemtë e presidentit është partner, raportoi Wall Street Journal .

Kori Schake , drejtoreshë e studimeve të politikës së jashtme dhe të mbrojtjes në Institutin Amerikan të Ndërmarrjeve, tha se kompanitë private kanë të drejtë të refuzojnë përdorimin e produkteve të tyre për mbikëqyrje dhe shënjestrim. Ndërsa Pentagoni mund të përdorë Aktin e Prodhimit të Mbrojtjes ose t’ia japë biznesin shitësve të tjerë, ajo tha se “një Departament Mbrojtjeje më i aftë do të gjente një kompromis të pranueshëm reciprokisht në mënyrë që të mos i trembin talentet e nivelit të lartë nga partneriteti me Departamentin e Mbrojtjes”.

Në postimin në blog të martën, ku njoftohej vendimi i saj për të zbutur një nga premtimet e saj kryesore për sigurinë, Anthropic e bëri të qartë se shihte një atmosferë të palëkundur në Uashington. “Mjedisi politik është zhvendosur drejt prioritizimit të konkurrueshmërisë së inteligjencës artificiale dhe rritjes ekonomike, ndërsa diskutimet e orientuara drejt sigurisë ende nuk kanë fituar terren domethënës në nivel federal”, shkroi ajo.

Pyetja tani është nëse gatishmëria e re e Anthropic për të zbutur masat mbrojtëse kur ka presion konkurrues, do të përkthehet në lëshime që do të zbusnin ngërçin e saj me Pentagonin.

Amodei ka kohë deri në orën 17:00 të premten për të vendosur nëse do ta kundërshtojë ose jo ultimatumin e Hegseth.