OpenAI po punëson dikë për të hetuar punonjësit e vet

foto

Në OpenAI, kërcënimi i sigurisë mund të vijë nga brenda shtëpisë. Kompania kohët e fundit postoi një listë pune për një hetues teknik të rrezikut për të forcuar organizatën tonë kundër kërcënimeve të sigurisë së brendshme.

foto

Postimi thotë se detyrat e punës përfshijnë analizimin e aktiviteteve anormale, zbulimin dhe zbutjen e kërcënimeve të brendshme dhe punën me departamentet e burimeve njerëzore dhe ligjore për të “kryer hetime për aktivitete të dyshimta”.

foto

Një zëdhënës i OpenAI tha se kompania nuk komenton mbi listat e vendeve të punës.

OpenAI është tashmë në qendër të një debati të nxehtë rreth AI dhe sigurisë. Punonjësit e OpenAI dhe ligjvënësit amerikanë kanë ngritur shqetësime nëse kompania po bën mjaftueshëm për të siguruar që teknologjitë e saj të fuqishme të mos përdoren për të shkaktuar dëm.

Në të njëjtën kohë, OpenAI ka thënë se ka parë aktorë të lidhur me shtetin nga Kina, Rusia dhe Irani që përpiqen të përdorin modelet e tij të AI për ato që i quan akte keqdashëse. Kompania thotë se ndërpreu këto veprime dhe mbylli llogaritë e lidhura me palët e përfshira.

Vetë OpenAI u bë objektivi i aktorëve keqdashës në vitin 2023 kur hakerët depërtuan sistemin e tij të brendshëm të mesazheve , një incident që doli në dritë pasi dy persona zbuluan informacione në The New York Times.

Përveç grupeve të hakerëve dhe qeverive autoritare, ky postim pune duket se tregon se OpenAI është i shqetësuar për kërcënimet që vijnë nga punonjësit e tij, megjithëse është e paqartë saktësisht se çfarë lloj kërcënimi është në kërkim të OpenAI.

Një mundësi është që kompania po kërkon të mbrojë sekretet tregtare që mbështesin teknologjinë e saj. Postimi tregon se punësimi nga OpenAI i një hetuesi të rrezikut të brendshëm është pjesë e angazhimeve vullnetare për sigurinë e AI që i bëri Shtëpisë së Bardhë, një prej të cilave ishte investimi në “mbrojtjen e kërcënimeve të brendshme për të mbrojtur peshën e modelit të pronarit dhe të papublikuar”.

Në një letër të hapur qershorin e kaluar, punonjësit aktualë dhe ish-punonjësit e OpenAI thanë se ndjeheshin të bllokuar nga shprehja e shqetësimeve për sigurinë e AI. Letra i bëri thirrje OpenAI të garantojë një “të drejtë për të paralajmëruar” publikun për rreziqet e produkteve të OpenAI. Është e paqartë nëse ky lloj sinjalizimi do të mbulohet nga “kontrollet e parandalimit të humbjes së të dhënave” që hetuesi i rrezikut do të jetë përgjegjës për zbatimin.