Kontrata e re e mbrojtjes e OpenAI përfundon strumbullarin e saj ushtarak
Një partneritet i ri me Anduril, i shpallur sot, do të vendosë AI në fushën e betejës. Ai përfaqëson një rishikim të pozicionit të kompanisë në vetëm një vit.
Në fillim të vitit 2024, rregullat e OpenAI për mënyrën se si forcat e armatosura mund të përdorin teknologjinë e tij ishin të paqarta.
Kompania ndaloi këdo që të përdorte modelet e saj për “zhvillimin e armëve” ose “ushtarake dhe luftë”. Kjo ndryshoi më 10 janar, kur The Intercept raportoi se OpenAI kishte zbutur ato kufizime, duke ndaluar këdo që të përdorte teknologjinë për të “dëmtuar veten ose të tjerët” duke zhvilluar ose përdorur armë, duke plagosur të tjerët ose duke shkatërruar pronë. OpenAI tha menjëherë pas se do të punonte me Pentagonin për softuerin e sigurisë kibernetike, por jo për armët. Më pas, në një postim në blog të publikuar në tetor, kompania ndau se po punon në hapësirën e sigurisë kombëtare, duke argumentuar se në duart e duhura, AI mund të “ndihmojë në mbrojtjen e njerëzve, të pengojë kundërshtarët dhe madje të parandalojë konfliktet e ardhshme”.
Sot, OpenAI po njofton se teknologjia e saj do të vendoset drejtpërdrejt në fushën e betejës.
Kompania thotë se do të bashkëpunojë me kompaninë e teknologjisë së mbrojtjes Anduril, një prodhues i dronëve, sistemeve të radarëve dhe raketave të fuqizuara nga AI, për të ndihmuar forcat amerikane dhe aleate të mbrohen kundër sulmeve me dronë. Sipas njoftimit, OpenAI do të ndihmojë në ndërtimin e modeleve të AI që “sintetizojnë me shpejtësi të dhëna të ndjeshme ndaj kohës, zvogëlojnë barrën mbi operatorët njerëzorë dhe përmirësojnë ndërgjegjësimin për situatën” për të rrëzuar dronët e armikut, sipas njoftimit. Specifikat nuk janë publikuar, por programi do të fokusohet ngushtë në mbrojtjen e personelit dhe objekteve amerikane nga kërcënimet ajrore pa pilot, sipas Liz Bourgeois, një zëdhënëse e OpenAI. “Ky partneritet është në përputhje me politikat tona dhe nuk përfshin përdorimin e teknologjisë sonë për të zhvilluar sisteme të dizajnuara për të dëmtuar të tjerët,” tha ajo. Një zëdhënës i Anduril nuk dha specifika mbi bazat në të gjithë botën ku do të vendosen modelet, por tha se teknologjia do të ndihmojë në zbulimin dhe gjurmimin e dronëve dhe do të reduktojë kohën që anëtarët e shërbimit shpenzojnë për detyra të mërzitshme.
Politikat e OpenAI për ndalimin e përdorimit ushtarak të teknologjisë së saj u zbërthyen në më pak se një vit. Kur kompania zbuti rregullin e saj dikur të qartë në fillim të këtij viti, ajo duhej të lejonte punën me ushtrinë në kontekste të kufizuara, si siguria kibernetike, parandalimi i vetëvrasjeve dhe lehtësimi i fatkeqësive, sipas një zëdhënësi të OpenAI.
Tani, OpenAI po përqafon hapur punën e saj për sigurinë kombëtare. Nëse puna me ushtritë ose kompanitë e teknologjisë së mbrojtjes mund të ndihmojë për të siguruar që vendet demokratike të dominojnë garën e AI, ka shkruar kompania, atëherë bërja e kësaj nuk do të kundërshtojë misionin e OpenAI për të siguruar që përfitimet e AI të ndahen gjerësisht. Në fakt, argumenton ajo, do të ndihmojë për t’i shërbyer atij misioni. Por mos bëni gabim: Ky është një ndryshim i madh nga pozicioni i saj vetëm një vit më parë.
Për të kuptuar se sa shpejt u shpalos ky strumbullar, vlen të përmendet se ndërsa kompania u lëkund në qasjen e saj ndaj hapësirës së sigurisë kombëtare, të tjerët në teknologji po garonin drejt saj.
Firmat e kapitalit sipërmarrës më shumë se dyfishuan investimet e tyre në teknologjinë e mbrojtjes në 2021, në 40 miliardë dollarë, pasi firma si Anduril dhe Palantir provuan se me njëfarë bindjeje (dhe procese gjyqësore ), Pentagoni do të paguante shumë për teknologjitë e reja. Kundërshtimi i punonjësve për të punuar në luftë (më i dukshëm gjatë largimeve në Google në 2018) u zbut për disa kur Rusia pushtoi Ukrainën në vitin 2022 (disa drejtues të teknologjisë së mbrojtjes më thanë se “paqartësia” e asaj lufte i ka ndihmuar ata të tërheqin si investime ashtu edhe talent).
Pra, në një farë mënyre, duke përqafuar mbrojtjen OpenAI sapo po arrin. Dallimi është se kompanitë e teknologjisë së mbrojtjes zotërojnë se janë në biznesin e luftës dhe nuk u është dashur të mohojnë me shpejtësi një trashëgimi si një kompani kërkimore jofitimprurëse e AI. Që nga statuti i saj themelues, OpenAI e ka pozicionuar veten si një organizatë në një mision për të siguruar që inteligjenca e përgjithshme artificiale të përfitojë të gjithë njerëzimin. Ajo ishte zotuar publikisht se puna me ushtrinë do të kundërshtonte atë mision.
Postimi i tij në blog i 24 tetorit përshkroi një rrugë të re, duke u përpjekur të vërë në pah vullnetin e OpenAI për të punuar në mbrojtje me vlerat e tij të deklaruara. E titulluar “Qasja e OpenAI-së ndaj AI dhe sigurisë kombëtare”, u publikua në të njëjtën ditë që Shtëpia e Bardhë lëshoi Memorandumin e saj të Sigurisë Kombëtare mbi AI, i cili urdhëroi Pentagonin dhe agjencitë e tjera të rrisin përdorimin e tyre të AI, pjesërisht për të penguar konkurrencën nga Kina.
“Ne besojmë se një vizion demokratik për AI është thelbësor për të zhbllokuar potencialin e tij të plotë dhe për të siguruar që përfitimet e tij të ndahen gjerësisht,” shkroi OpenAI, duke i bërë jehonë gjuhës së ngjashme në memon e Shtëpisë së Bardhë. “Ne besojmë se demokracitë duhet të vazhdojnë të marrin drejtimin në zhvillimin e AI, të udhëhequra nga vlera si liria, drejtësia dhe respekti për të drejtat e njeriut.”
Ai ofroi një sërë mënyrash që OpenAI mund të ndihmonte në ndjekjen e këtij qëllimi, duke përfshirë përpjekjet për të “racionalizuar detyrat e përkthimit dhe përmbledhjes, dhe studimin dhe zbutjen e dëmeve civile”, ndërkohë që ende ndalonte përdorimin e teknologjisë së tij për “dëmtimin e njerëzve, shkatërrimin e pronës ose zhvillimin e armëve”. ” Mbi të gjitha, ishte një mesazh nga OpenAI se është në bord me punën e sigurisë kombëtare.
Politikat e reja theksojnë “fleksibilitetin dhe pajtueshmërinë me ligjin”, thotë Heidy Khlaaf, një shkencëtare kryesore e AI në Institutin AI Now dhe një studiuese e sigurisë, e cila ka shkruar një punim me OpenAI në 2022 rreth rreziqeve të mundshme të teknologjisë së saj në kontekste përfshirë ushtrinë. Piloti i kompanisë “në fund sinjalizon një pranueshmëri në kryerjen e aktiviteteve që lidhen me ushtrinë dhe luftën siç e shohin të arsyeshme Pentagoni dhe ushtria amerikane”, thotë ajo.
Amazon, Google dhe partneri dhe investitori i OpenAI, Microsoft, kanë konkurruar për kontratat e kompjuterit cloud të Pentagonit për vite me radhë. Këto kompani kanë mësuar se puna me mbrojtjen mund të jetë tepër fitimprurëse dhe strumbullari i OpenAI, i cili vjen pasi kompania pret 5 miliardë dollarë humbje dhe thuhet se po eksploron rrjedha të reja të të ardhurave si reklamat , mund të sinjalizojë se ajo dëshiron një pjesë të këtyre kontratave. Marrëdhëniet e Big Tech me ushtrinë gjithashtu nuk shkaktojnë më zemërimin dhe shqyrtimin që bënin dikur. Por OpenAI nuk është një ofrues cloud, dhe teknologjia që po ndërton duhet të bëjë shumë më tepër sesa thjesht të ruajë dhe të marrë të dhëna. Me këtë partneritet të ri, OpenAI premton të ndihmojë në klasifikimin e të dhënave në fushën e betejës, të sigurojë njohuri rreth kërcënimeve dhe të ndihmojë në bërjen e procesit të vendimmarrjes në luftë më të shpejtë dhe më efikas.
Deklaratat e OpenAI për sigurinë kombëtare ndoshta ngrenë më shumë pyetje sesa përgjigjen. Kompania dëshiron të zbusë dëmin e civilëve, por për cilët civilë? A nuk llogaritet kontributi i modeleve të AI në një program që rrëzon dronët si zhvillim i armëve që mund të dëmtojnë njerëzit?
“Armët mbrojtëse janë ende me të vërtetë armë,” thotë Khlaaf. Ata “shpesh mund të pozicionohen në mënyrë sulmuese, duke iu nënshtruar vendndodhjes dhe qëllimit të një misioni.”
Përtej këtyre pyetjeve, të punosh në mbrojtje do të thotë që kompania më e shquar në botë e AI, e cila ka pasur një sasi të pabesueshme të levave në industri dhe ka kohë që është pontifikuar se si të kujdeset me përgjegjësi AI, tani do të punojë në një industri të teknologjisë së mbrojtjes që luan me një një grup rregullash krejtësisht të ndryshme. Në atë sistem, kur klienti juaj është ushtria amerikane, kompanitë e teknologjisë nuk mund të vendosin se si përdoren produktet e tyre.