Pentagoni i SHBA-së intensifikon bisedimet me kompanitë kryesore të inteligjencës artificiale për vendosjen e mjeteve në sisteme të klasifikuara
Pentagoni po ushtron presion të vërtetë mbi kompanitë kryesore të inteligjencës artificiale që t’i japin ushtrisë amerikane akses në mjetet e tyre brenda sistemeve të klasifikuara.

Zyrtarët nuk po kërkojnë vetëm akses bazë. Ata duan që këto modele të inteligjencës artificiale të funksionojnë pa të gjitha kufizimet e zakonshme që kompanitë u vendosin përdoruesve.

Gjatë një takimi në Shtëpinë e Bardhë të martën, Emil Michael, Drejtori Kryesor i Teknologjisë i Pentagonit, u tha udhëheqësve të teknologjisë se ushtria dëshiron që këto modele të inteligjencës artificiale të funksionojnë në rrjetet e klasifikuara dhe të paklasifikuara.
Një zyrtar i afërt me bisedimet thuhet se tha se qeveria tani është e vendosur të përfshijë atë që e quan “aftësi të inteligjencës artificiale kufitare” në çdo nivel të përdorimit ushtarak.
Kjo shtytje është pjesë e diskutimeve më të gjera rreth mënyrës se si do të përdoret inteligjenca artificiale në luftimet e ardhshme. Luftërat tashmë po formësohen nga tufat e dronëve, robotët dhe sulmet kibernetike pa ndërprerje. Pentagoni nuk dëshiron të luajë role të tjera ndërsa bota e teknologjisë vendos kufij rreth asaj që lejohet.
Aktualisht, shumica e kompanive që punojnë me ushtrinë ofrojnë versione të zbutura të modeleve të tyre. Këto funksionojnë vetëm në sisteme të hapura dhe të paklasifikuara që përdoren për punë administrative. Anthropic është i vetmi përjashtim.
Claude, chatbot-i i saj, mund të përdoret në disa mjedise të klasifikuara, por vetëm përmes platformave të palëve të treta. Edhe atëherë, përdoruesit qeveritarë duhet të ndjekin rregullat e Anthropic.
Ajo që dëshiron Pentagoni është akses i drejtpërdrejtë brenda rrjeteve të klasifikuara shumë të ndjeshme. Këto sisteme përdoren për gjëra të tilla si planifikimi i misioneve ose bllokimi i objektivave. Nuk është e qartë se kur ose si do të instalohen chatbot-e si Claude ose ChatGPT në ato rrjete, por ky është qëllimi.
Zyrtarët besojnë se inteligjenca artificiale mund të ndihmojë në përpunimin e sasive të mëdha të të dhënave dhe t’ua japë ato vendimmarrësve me shpejtësi. Por nëse këto mjete gjenerojnë informacione të rreme, dhe në fakt ato gjenerojnë, njerëzit mund të vdesin. Studiuesit kanë paralajmëruar pikërisht për këtë.
OpenAI bëri një marrëveshje me Pentagonin këtë javë. ChatGPT tani do të përdoret në një rrjet të paklasifikuar të quajtur genai.mil. Ky rrjet tashmë arrin mbi 3 milionë punonjës në të gjithë Departamentin e Mbrojtjes.
Si pjesë e marrëveshjes, OpenAI hoqi shumë nga kufizimet e përdorimit normal. Ende ka disa pengesa, por Pentagoni mori shumicën e asaj që donte.
Një zëdhënës i kompanisë tha se çdo zgjerim në përdorimin e klasifikuar do të kërkonte një marrëveshje të re. Google dhe xAI i Elon Musk kanë bërë marrëveshje të ngjashme në të kaluarën.
Bisedimet me Anthropic nuk kanë qenë aq të lehta. Udhëheqësit e kompanisë i thanë Pentagonit se nuk duan që teknologjia e tyre të përdoret për shënjestrim automatik ose spiunazh të njerëzve brenda SHBA-së.
Edhe pse Claude po përdoret tashmë në disa misione të sigurisë kombëtare, drejtuesit e kompanisë po kundërshtojnë. Në një deklaratë, një zëdhënës tha:
“Anthropic është e përkushtuar për të mbrojtur epërsinë e Amerikës në inteligjencën artificiale dhe për të ndihmuar qeverinë amerikane të kundërshtojë kërcënimet e huaja duke u dhënë luftëtarëve tanë qasje në aftësitë më të përparuara të inteligjencës artificiale.”
Ata thanë se Claude është tashmë në përdorim dhe kompania ende po punon ngushtë me atë që tani quhet Departamenti i Luftës. Presidenti Donald Trump kohët e fundit urdhëroi Departamentin e Mbrojtjes të miratojë atë emër, por Kongresi ende duhet ta miratojë atë.
Ndërsa e gjithë kjo po ndodh, një grup studiuesish në këto kompani po largohen. Një nga studiuesit kryesorë të mbrojtjes së Anthropic tha: “Bota është në rrezik”, ndërsa jepte dorëheqjen. Një studiues në OpenAI gjithashtu u largua, duke thënë se teknologjia ka “një potencial për të manipuluar përdoruesit në mënyra që nuk kemi mjetet për t’i kuptuar, e lëre më për t’i parandaluar”.
Disa nga njerëzit që po largohen nuk po e bëjnë këtë në heshtje. Ata po paralajmërojnë se gjërat po ecin shumë shpejt dhe rreziqet po injorohen. Zoë Hitzig, e cila punoi në OpenAI për dy vjet, dha dorëheqjen këtë javë.
Në një ese, ajo tha se kishte “rezerva të thella” në lidhje me mënyrën se si kompania po planifikon të sjellë reklama. Ajo tha gjithashtu se ChatGPT ruan të dhënat private të njerëzve, gjëra të tilla si “frika mjekësore, problemet e tyre në marrëdhënie, besimet e tyre rreth Zotit dhe jetës së përtejme”.
Ajo tha se ky është një problem i madh sepse njerëzit i besojnë chatbot-it dhe nuk mendojnë se ka ndonjë motiv të fshehur.
Rreth të njëjtës kohë, faqja e teknologjisë Platformer raportoi se OpenAI hoqi qafe ekipin e saj të harmonizimit të misionit. Ky grup u krijua në vitin 2024 për t’u siguruar që qëllimi i kompanisë për të ndërtuar inteligjencën artificiale që ndihmon të gjithë njerëzimin të kishte vërtet një kuptim.
