Një haker vodhi sekretet e OpenAI, duke ngritur frikën se edhe Kina mundet

foto

Një shkelje e sigurisë në krijuesin e ChatGPT vitin e kaluar zbuloi diskutime të brendshme midis studiuesve dhe punonjësve të tjerë, por jo kodin pas sistemeve të OpenAI.

Në fillim të vitit të kaluar, një haker fitoi akses në sistemet e brendshme të mesazheve të OpenAI, krijuesi i ChatGPT, dhe vodhi detaje rreth dizajnit të teknologjive AI të kompanisë.

Hakeri hoqi detajet nga diskutimet në një forum në internet ku punonjësit folën për teknologjitë më të fundit të OpenAI, sipas dy personave të njohur me incidentin, por nuk u fut në sistemet ku kompania strehon dhe ndërton inteligjencën e saj artificiale.

Drejtuesit e OpenAI ua zbuluan incidentin punonjësve gjatë një takimi të plotë në zyrat e kompanisë në San Francisko në prill 2023 dhe informuan bordin e saj të drejtorëve, sipas dy personave, të cilët diskutuan informacione të ndjeshme rreth kompanisë në kushte anonimiteti.

Por drejtuesit vendosën të mos e ndajnë lajmin publikisht sepse nuk ishte vjedhur asnjë informacion për klientët apo partnerët, thanë të dy personat. Drejtuesit nuk e konsideruan incidentin një kërcënim për sigurinë kombëtare, sepse ata besonin se hakeri ishte një individ privat pa lidhje të njohura me një qeveri të huaj. Kompania nuk informoi FBI-në apo askënd tjetër në zbatimin e ligjit.

Për disa punonjës të OpenAI, lajmi ngjalli frikën se kundërshtarët e huaj si Kina mund të vjedhin teknologjinë e AI që – edhe pse tani kryesisht një mjet pune dhe kërkimi – mund të rrezikojë përfundimisht sigurinë kombëtare të SHBA. Ai gjithashtu çoi në pyetje se sa seriozisht po trajtonte OpenAI sigurinë dhe ekspozoi thyerje brenda kompanisë në lidhje me rreziqet e inteligjencës artificiale.

Pas shkeljes, Leopold Aschenbrenner, një menaxher teknik i programit OpenAI i fokusuar në sigurimin që teknologjitë e ardhshme të AI të mos shkaktojnë dëm serioz, i dërgoi një memo bordit të drejtorëve të OpenAI, duke argumentuar se kompania nuk po bënte mjaftueshëm për të parandaluar qeverinë kineze dhe të huajt e tjerë. kundërshtarët nga vjedhja e sekreteve të saj.

foto

Z. Aschenbrenner tha se OpenAI e kishte shkarkuar atë këtë pranverë për rrjedhje të informacioneve të tjera jashtë kompanisë dhe argumentoi se shkarkimi i tij ishte i motivuar politikisht. Ai aludoi për shkeljen në një podcast të fundit, por detajet e incidentit nuk janë raportuar më parë. Ai tha se siguria e OpenAI nuk ishte mjaft e fortë për të mbrojtur kundër vjedhjes së sekreteve kryesore nëse aktorë të huaj do të depërtonin në kompani.

“Ne vlerësojmë shqetësimet që Leopold ngriti gjatë kohës që ishte në OpenAI dhe kjo nuk çoi në ndarjen e tij,” tha një zëdhënëse e OpenAI, Liz Bourgeois. Duke iu referuar përpjekjeve të kompanisë për të ndërtuar inteligjencën e përgjithshme artificiale, një makinë që mund të bëjë gjithçka që truri i njeriut mund të bëjë, ajo shtoi, “Ndërsa ne ndajmë angazhimin e tij për ndërtimin e AGI të sigurt, ne nuk pajtohemi me shumë nga pretendimet që ai ka bërë që atëherë për puna. Kjo përfshin karakterizimet e tij për sigurinë tonë, veçanërisht këtë incident, të cilin e trajtuam dhe e ndamë me bordin tonë përpara se ai të bashkohej me kompaninë.”

Frika se një hak i një kompanie teknologjike amerikane mund të ketë lidhje me Kinën nuk janë të paarsyeshme. Muajin e kaluar, Brad Smith, presidenti i Microsoft-it, dëshmoi në Capitol Hill se si hakerat kinezë përdorën sistemet e gjigantit të teknologjisë për të nisur një sulm të gjerë në rrjetet e qeverisë federale.

Megjithatë, sipas ligjit federal dhe Kalifornisë, OpenAI nuk mund t’i pengojë njerëzit të punojnë në kompani për shkak të kombësisë së tyre dhe studiuesit e politikave kanë thënë se ndalimi i talenteve të huaj nga projektet amerikane mund të pengojë ndjeshëm përparimin e AI në Shtetet e Bashkuara.

“Ne kemi nevojë për mendjet më të mira dhe më të zgjuara që punojnë në këtë teknologji,” tha në një intervistë për The New York Times, Matt Knight, kreu i sigurisë i OpenAI. “Kjo vjen me disa rreziqe dhe ne duhet t’i kuptojmë ato.”

(The Times ka paditur OpenAI dhe partnerin e tij, Microsoft, duke pretenduar shkelje të të drejtave të autorit të përmbajtjes së lajmeve në lidhje me sistemet e AI.)

OpenAI nuk është e vetmja kompani që ndërton sisteme gjithnjë e më të fuqishme duke përdorur teknologjinë e AI që përmirësohet me shpejtësi. Disa prej tyre – më së shumti Meta, pronari i Facebook dhe Instagram – po ndajnë lirisht modelet e tyre me pjesën tjetër të botës si softuer me burim të hapur. Ata besojnë se rreziqet e paraqitura nga teknologjitë e sotme të AI janë të pakta dhe se kodi i përbashkët i lejon inxhinierët dhe studiuesit në të gjithë industrinë të identifikojnë dhe rregullojnë problemet.

Sistemet e sotme të AI mund të ndihmojnë në përhapjen e dezinformatave në internet, duke përfshirë tekstin , imazhet statike dhe, gjithnjë e më shumë, videot . Ata gjithashtu kanë filluar të heqin disa punë.

Kompanitë si OpenAI dhe konkurrentët e saj Anthropic dhe Google shtojnë parmakë në aplikacionet e tyre të AI përpara se t’i ofrojnë ato individëve dhe bizneseve, duke shpresuar të parandalojnë njerëzit që të përdorin aplikacionet për të përhapur dezinformata ose për të shkaktuar probleme të tjera.

foto

Por nuk ka shumë prova që teknologjitë e sotme të AI janë një rrezik i rëndësishëm për sigurinë kombëtare. Studimet nga OpenAI, Anthropic dhe të tjerët gjatë vitit të kaluar treguan se AI nuk ishte dukshëm më i rrezikshëm se motorët e kërkimit. Daniela Amodei, një bashkëthemeluese e Anthropic dhe presidente e kompanisë, tha se teknologjia e saj më e fundit e AI nuk do të ishte një rrezik i madh nëse modelet e saj vidheshin ose ndaheshin lirisht me të tjerët.

“Nëse do të ishte në pronësi të dikujt tjetër, a mund të ishte jashtëzakonisht e dëmshme për shumë shoqëri? Përgjigja jonë është ‘Jo, ndoshta jo’, tha ajo për The Times muajin e kaluar. “A mund të përshpejtojë diçka për një aktor të keq në rrugë? Ndoshta. Është vërtet spekulative.”

Megjithatë, studiuesit dhe drejtuesit e teknologjisë janë shqetësuar prej kohësh se AI një ditë mund të nxisë krijimin e bioarmëve të reja ose të ndihmojë në depërtimin e sistemeve kompjuterike qeveritare. Disa madje besojnë se mund të shkatërrojë njerëzimin.

Një numër kompanish, duke përfshirë OpenAI dhe Anthropic, tashmë po mbyllin operacionet e tyre teknike. OpenAI krijoi kohët e fundit një Komitet të Sigurisë dhe Sigurisë për të eksploruar se si duhet të trajtojë rreziqet që vijnë nga teknologjitë e ardhshme. Komiteti përfshin Paul Nakasone, një ish-gjeneral i ushtrisë që drejtoi Agjencinë e Sigurisë Kombëtare dhe Komandën Kibernetike. Ai gjithashtu është emëruar në bordin e drejtorëve të OpenAI.

“Ne filluam të investonim në siguri vite përpara ChatGPT,” tha zoti Knight. “Ne jemi në një udhëtim jo vetëm për të kuptuar rreziqet dhe për të qëndruar përpara tyre, por edhe për të thelluar qëndrueshmërinë tonë.”

Zyrtarët federalë dhe ligjvënësit shtetërorë po shtyjnë gjithashtu drejt rregulloreve qeveritare që do t’i ndalonin kompanitë të lëshojnë disa teknologji të AI dhe do t’i gjobisnin me miliona nëse teknologjitë e tyre shkaktonin dëm. Por ekspertët thonë se këto rreziqe janë ende vite apo edhe dekada larg.

foto

Kompanitë kineze po ndërtojnë sisteme të tyre që janë pothuajse po aq të fuqishme sa sistemet kryesore amerikane. Nga disa metrikë, Kina eklipsoi Shtetet e Bashkuara si prodhuesi më i madh i talenteve të AI, me vendin që gjeneron pothuajse gjysmën e studiuesve më të mirë në botë të AI.

“Nuk është çmenduri të mendosh se Kina së shpejti do të jetë përpara SHBA-së,” tha Clément Delangue, shefi ekzekutiv i Hugging Face, një kompani që pret shumë nga projektet e AI me burim të hapur në botë.

Disa studiues dhe drejtues të sigurisë kombëtare argumentojnë se algoritmet matematikore në zemër të sistemeve aktuale të AI, megjithëse nuk janë të rrezikshëm sot, mund të bëhen të rrezikshëm dhe po bëjnë thirrje për kontrolle më të forta në laboratorët e AI.

“Edhe nëse skenarët e rastit më të keq janë me probabilitet relativisht të ulët, nëse ato kanë ndikim të madh, atëherë është përgjegjësia jonë t’i marrim seriozisht,” tha Susan Rice, ish-këshilltare për politikat e brendshme të Presidentit Biden dhe ish-këshilltare për sigurinë kombëtare për Presidentin Barack Obama. gjatë një ngjarjeje në Silicon Valley muajin e kaluar. “Unë nuk mendoj se është fantashkencë, siç duan të pretendojnë shumë.”