OpenAI humbet një tjetër studiuese kryesore të sigurisë, Lilian Weng

foto

Një tjetër nga studiuesit kryesorë të sigurisë në OpenAI, Lilian Weng, njoftoi të premten se do të largohet nga startup-i. Weng shërbeu si VP i kërkimit dhe sigurisë që nga gushti, dhe para kësaj, ishte kreu i ekipit të sistemeve të sigurisë të OpenAI.

foto

Në një postim në X, Weng tha se “pas 7 vitesh në OpenAI, ndihem gati të rivendos dhe eksploroj diçka të re”. Weng tha se dita e saj e fundit do të jetë 15 nëntori, por nuk specifikoi se ku do të shkojë më pas.

foto

“Kam marrë vendimin jashtëzakonisht të vështirë për t’u larguar nga OpenAI,” tha Weng në postim. “Duke parë atë që kemi arritur, jam shumë krenar për të gjithë në ekipin e Sistemeve të Sigurisë dhe kam besim jashtëzakonisht të lartë se ekipi do të vazhdojë të lulëzojë.”

Largimi i Weng shënon më të fundit në një varg të gjatë studiuesish të sigurisë së AI, studiues të politikave dhe drejtues të tjerë që janë larguar nga kompania vitin e fundit, dhe disa kanë akuzuar OpenAI se i jep përparësi produkteve komerciale mbi sigurinë e AI. Weng bashkohet me Ilya Sutskever dhe Jan Leike – drejtuesit e ekipit Superalignment të shpërbërë të OpenAI, i cili u përpoq të zhvillonte metoda për të drejtuar sistemet superinteligjente të AI – të cilët gjithashtu u larguan nga startup këtë vit për të punuar në sigurinë e AI diku tjetër.

Weng iu bashkua për herë të parë OpenAI në vitin 2018, sipas LinkedIn-it të saj, duke punuar në ekipin e robotikës së startup-it që përfundoi në ndërtimin e një dore roboti që mund të zgjidhte një kub të Rubikut – një detyrë që iu deshën dy vjet për t’u arritur, sipas postimit të saj.

Ndërsa OpenAI filloi të fokusohej më shumë në paradigmën GPT, kështu bëri edhe Weng. Studiuesi kaloi për të ndihmuar në ndërtimin e ekipit të kërkimit të inteligjencës artificiale të aplikuar të startup-it në vitin 2021. Pas lançimit të GPT-4, Weng u ngarkua me krijimin e një ekipi të dedikuar për të ndërtuar sisteme sigurie për startup-in në vitin 2023. Sot, njësia e sistemeve të sigurisë të OpenAI ka më shumë se 80 shkencëtarë, studiues dhe ekspertë të politikave, sipas postimit të Weng.

Kjo është shumë njerëz të sigurisë së AI, por shumë prej tyre kanë ngritur shqetësime rreth përqendrimit të OpenAI në siguri, ndërsa përpiqet të ndërtojë sisteme gjithnjë e më të fuqishme të AI. Miles Brundage, një studiues për një kohë të gjatë i politikave, u largua nga startup-i në tetor dhe njoftoi se OpenAI po shpërndante ekipin e tij të gatishmërisë AGI, të cilin ai e kishte këshilluar. Në të njëjtën ditë, New York Times profilizoi një ish-kërkues të OpenAI, Suchir Balaji, i cili tha se u largua nga OpenAI sepse mendonte se teknologjia e startup-it do të sillte më shumë dëm sesa përfitim për shoqërinë.

OpenAI i thotë TechCrunch se drejtuesit dhe studiuesit e sigurisë po punojnë në një tranzicion për të zëvendësuar Weng.

“Ne e vlerësojmë thellësisht kontributin e Lilian në kërkimin e përparimit të sigurisë dhe ndërtimin e masave mbrojtëse teknike rigoroze,” tha një zëdhënës i OpenAI në një deklaratë të dërguar me email. “Ne kemi besim se ekipi i Sistemeve të Sigurisë do të vazhdojë të luajë një rol kyç për të siguruar që sistemet tona të jenë të sigurta dhe të besueshme, duke u shërbyer qindra miliona njerëzve në mbarë botën.”

Drejtues të tjerë që janë larguar nga OpenAI në muajt e fundit përfshijnë CTO Mira Murati , shefin e kërkimit Bob McGrew dhe VP-në e kërkimit Barret Zoph. Në gusht, studiuesi i shquar Andrej Karpathy dhe bashkëthemeluesi John Schulman gjithashtu njoftuan se do të largoheshin nga startup-i. Disa nga këta njerëz, duke përfshirë Leike dhe Schulman, u larguan për t’u bashkuar me një konkurrent të OpenAI, Anthropic, ndërsa të tjerët kanë vazhduar të fillojnë sipërmarrjet e tyre.