Anthropic zemëron Shtëpinë e Bardhë me kufizimet mbi përdorimin e modeleve
Anthropic është në mes të një turneu mediatik në Uashington, por refuzimi i saj për të lejuar që modelet e saj të përdoren për disa qëllime të zbatimit të ligjit ka thelluar armiqësinë ndaj kompanisë brenda administratës Trump, thanë dy zyrtarë të lartë për Semafor.

Anthropic kohët e fundit refuzoi kërkesat nga kontraktorët që punojnë me agjencitë federale të zbatimit të ligjit, sepse kompania refuzon të bëjë një përjashtim që lejon që mjetet e saj të inteligjencës artificiale të përdoren për disa detyra, duke përfshirë mbikëqyrjen e qytetarëve amerikanë, thanë zyrtarët, të cilët folën me Semafor në kushte anonimiteti.

Tensionet vijnë në një moment kur Shtëpia e Bardhë e Donald Trump ka mbështetur kompanitë amerikane të inteligjencës artificiale si bastion patriotik të konkurrencës globale – dhe presin që kompanitë ta shpërblejnë këtë besnikëri. Zyrtarët thanë se ishin të shqetësuar se Anthropic po zbatonte në mënyrë selektive politikat e saj bazuar në politikë dhe po përdorte terminologji të paqartë për të lejuar që rregullat e saj të interpretoheshin gjerësisht.
Për shembull, Anthropic aktualisht kufizon mënyrën se si FBI-ja, Shërbimi Sekret dhe Imigracioni, si dhe Zbatimi i Doganave mund të përdorin modelet e saj të inteligjencës artificiale, sepse këto agjenci kryejnë mbikëqyrje, gjë që është e ndaluar nga politika e përdorimit e Anthropic.
Një nga zyrtarët tha se qëndrimi i Anthropic, i cili ka qenë në fuqi prej kohësh, përbën një gjykim moral rreth mënyrës se si agjencitë e zbatimit të ligjit e bëjnë punën e tyre.
Politika nuk përcakton konkretisht se çfarë nënkuptohet me “mbikëqyrje shtëpiake” në një kontekst të zbatimit të ligjit dhe duket se e përdor termin gjerësisht, duke krijuar hapësirë për interpretim.
Ofrues të tjerë të modeleve të IA-së gjithashtu rendisin kufizime në mbikëqyrje, por ofrojnë shembuj më specifikë dhe shpesh kanë përjashtime për aktivitetet e zbatimit të ligjit. Politika e OpenAI, për shembull, ndalon “monitorimin e paautorizuar të individëve”, duke nënkuptuar pëlqimin për monitorim ligjor nga zbatuesit e ligjit.
Vendimi i Anthropic për të kufizuar mënyrën se si agjencitë e zbatimit të ligjit dhe të sigurisë kombëtare përdorin modelet e saj është shndërruar në një dhimbje koke për disa kontraktorë privatë që punojnë me këto agjenci.
Kjo për shkak se në disa raste, modelet Claude të Anthropic — të disponueshme përmes sistemit Amazon Web Services GovCloud — janë të vetmet modele të nivelit të lartë të miratuara për situata sigurie tepër sekrete, thanë zyrtarët.
Anthropic ka një shërbim specifik që synon klientët e sigurisë kombëtare dhe arriti një marrëveshje me qeverinë federale për t’u ofruar shërbimet e saj agjencive qeveritare kundrejt një tarife prej 1 dollari.
Anthropic gjithashtu bashkëpunon me Departamentin e Mbrojtjes të SHBA-së, megjithëse politikat e tij ende ndalojnë përdorimin e modeleve të saj për prodhimin e armëve.
Anthropic është përplasur me zyrtarët e administratës Trump në të kaluarën, kur kundërshtoi një ligj të propozuar që do t’i kishte penguar shtetet e SHBA-së të miratonin rregullore për inteligjencën artificiale.
Debati i Anthropic me kontraktorët e zbatimit të ligjit — që vjen në një kohë kur rivalët më të mëdhenj si Google janë tërhequr në heshtje nga përpjekjet për të zbatuar politika progresive përmes politikave të tyre të korporatave — ngre një pyetje të vështirë për kompanitë më të fuqishme në Silicon Valley: Sa duhet të jenë në gjendje ofruesit e softuerëve të kontrollojnë mënyrën se si përdoren produktet e tyre, veçanërisht pasi ato shiten në agjencitë qeveritare?
Për shembull, një agjenci mund të paguajë për një abonim ose të negociojë një kontratë pagese për përdorim me një ofrues të inteligjencës artificiale, vetëm për të zbuluar se i ndalohet të përdorë modelin e inteligjencës artificiale në disa mënyra, duke kufizuar vlerën e tij.
Softueri tradicional nuk është kështu. Pasi një agjenci qeveritare ka qasje në Microsoft Office, nuk ka pse të shqetësohet nëse po përdor Excel për të mbajtur gjurmët e armëve apo të lapsave.
Gjithashtu, në botën e kontraktimit qeveritar, përgjithësisht është parë me keqkuptime të mëdha që “të zgjedhësh e të zgjedhësh” se si mund të përdoret softueri. Por punonjësit aktivistë gjatë dekadës së fundit shpesh i kanë ushtruar presion punëdhënësve të tyre që të qëndrojnë larg industrisë së mbrojtjes në veçanti.
Tensionet midis Anthropic dhe Shtëpisë së Bardhë janë pjesë e një beteje më të gjerë midis lëvizjes së “sigurisë” së inteligjencës artificiale, e cila ka aleatë në startup-in e pavarur të inteligjencës artificiale, dhe shumë prej rivalëve të saj dhe administratës republikane, të cilat preferojnë të lëvizin më shpejt.
Një gjë që e mbron Anthropic në të gjithë këtë është se modelet e saj performojnë jashtëzakonisht mirë. Megjithatë, përfundimisht, politikat e saj mund të dëmtojnë biznesin e qeverisë së saj.
