ChatGPT mund të flasë, por punonjësit e OpenAI sigurisht që nuk munden

foto

Të hënën, OpenAI njoftoi një lajm emocionues të produktit të ri: ChatGPT tani mund të flasë si një njeri.

foto

Ka një zë të gëzuar, pak tërheqës femëror që tingëllon mbresëlënës jo-robotik dhe pak i njohur nëse keni parë një film të caktuar të Spike Jonze të vitit 2013. “Ajo,” shkroi në Twitter CEO i OpenAI, Sam Altman, duke iu referuar filmit në të cilin një burrë bie në dashuri me një asistent të AI të shprehur nga Scarlett Johansson.

foto

Por publikimi i produktit të ChatGPT 4o u errësua shpejt nga një lajm shumë më i madh nga OpenAI: dorëheqja e bashkëthemeluesit dhe shkencëtarit kryesor të kompanisë, Ilya Sutskever, i cili gjithashtu drejtoi ekipin e tij të superlinjës, si dhe atë të bashkë-drejtuesit të tij të ekipit. Jan Leike (të cilin e vendosëm në listën e Future Perfect 50 vitin e kaluar ).

Dorëheqjet nuk erdhën si një surprizë totale. Sutskever ishte përfshirë në revoltën e sallës së bordit që çoi në shkarkimin e përkohshëm të Altman vitin e kaluar, përpara se CEO të kthehej shpejt në vendin e tij. Sutskever u pendua publikisht për veprimet e tij dhe mbështeti kthimin e Altman, por ai ka munguar kryesisht nga kompania që nga viti 2018 , edhe pse anëtarët e tjerë të politikës, shtrirjes dhe sigurisë së OpenAI janë larguar.

Por ajo që ka nxitur vërtetë spekulime ishte heshtja e radios nga ish-punonjësit. Sutskever postoi një mesazh mjaft tipik dorëheqjeje, duke thënë: “Unë jam i sigurt se OpenAI do të ndërtojë AGI që është edhe e sigurt dhe e dobishme… Jam i emocionuar për atë që vjen më pas.”

Leike … jo. Mesazhi i tij i dorëheqjes ishte thjesht : “Unë dhashë dorëheqjen”. Pas disa ditësh spekulimesh të zjarrta, ai e zgjeroi këtë të premten në mëngjes, duke shpjeguar se ishte i shqetësuar se OpenAI ishte larguar nga një kulturë e përqendruar te siguria .

Pyetjet u ngritën menjëherë: A u detyruan të largoheshin? A është kjo pasoja e vonuar e shkarkimit të shkurtër të Altman vjeshtën e kaluar? A po japin dorëheqjen në shenjë proteste ndaj një projekti të ri sekret dhe të rrezikshëm OpenAI? Spekulimet e mbushën boshllëkun sepse askush që kishte punuar dikur në OpenAI nuk po fliste.

Rezulton se ka një arsye shumë të qartë për këtë. Unë kam parë marrëveshjen jashtëzakonisht kufizuese jashtë konviktit që përmban dispozita për moszbulim dhe mospërçmim të cilëve u nënshtrohen ish-punonjësit e OpenAI. Ai i ndalon ata që të kritikojnë ish-punëdhënësin e tyre gjatë gjithë jetës së tyre. Edhe të pranosh që NDA ekziston është një shkelje e saj.

Nëse një punonjës që largohet refuzon të nënshkruajë dokumentin, ose nëse e shkel atë, ata mund të humbasin të gjithë kapitalin e vet të fituar që kanë fituar gjatë kohës së tyre në kompani, e cila ka të ngjarë të vlejë miliona dollarë. Një ish-punonjës, Daniel Kokotajlo, i cili postoi se u largua nga OpenAI “për shkak të humbjes së besimit se do të sillej me përgjegjësi gjatë kohës së AGI”, ka konfirmuar publikisht se ai duhej të dorëzohej nga ajo që do të kishte rezultuar të ishte një shumë e madhe. para për të hequr dorë pa nënshkruar dokumentin.

Ndërsa marrëveshjet e moszbulimit nuk janë të pazakonta në Silicon Valley shumë konkurrues, rrezikimi i rrezikut të rënies ose shkeljes së kapitalit të investuar tashmë të një punonjësi është. Për punëtorët në startup-et si OpenAI, barazia është një formë jetike e kompensimit, një formë që mund të zvogëlojë pagën që ata marrin. Kërcënimi i parave që mund të ndryshojnë jetën është një mënyrë shumë efektive për të mbajtur të heshtur ish-punonjësit.

OpenAI nuk iu përgjigj një kërkese për koment në kohë për publikimin fillestar. Pas publikimit, një zëdhënës i OpenAI më dërgoi këtë deklaratë: “Ne kurrë nuk e kemi anuluar kapitalin e zotëruar të ndonjë punonjësi aktual ose të mëparshëm dhe nuk do ta bëjmë nëse njerëzit nuk nënshkruajnë një marrëveshje lirimi ose mospërçmimi kur dalin.”

Burime pranë kompanisë me të cilën fola më thanë se kjo përfaqësonte një ndryshim në politikë siç e kuptonin ata. Kur e pyeta zëdhënësin e OpenAI nëse ajo deklaratë përfaqësonte një ndryshim, ata u përgjigjën: “Kjo deklaratë pasqyron realitetin”.

Të shtunën pasdite, pak më shumë se një ditë pas publikimit të këtij artikulli, Altman pranoi në një postim në Twitter se kishte pasur një dispozitë në dokumentet jashtë konviktit të kompanisë për “anulimin e mundshëm të kapitalit” për punonjësit që largoheshin, por tha se kompania ishte në procesi i ndryshimit të asaj gjuhe.

E gjithë kjo është shumë ironike për një kompani që fillimisht e reklamoi veten si Open AI – domethënë, si e angazhuar në deklaratat e misionit të saj për të ndërtuar sisteme të fuqishme në një mënyrë transparente dhe të përgjegjshme.

OpenAI kohë më parë braktisi idenë e modeleve të saj me burim të hapur, duke përmendur shqetësimet e sigurisë. Por tani ajo ka larguar anëtarët më të vjetër dhe më të respektuar të ekipit të saj të sigurisë, gjë që duhet të frymëzojë njëfarë skepticizmi nëse siguria është me të vërtetë arsyeja pse OpenAI është mbyllur kaq shumë.

OpenAI ka kaluar një kohë të gjatë duke zënë një pozicion të pazakontë në qarqet e teknologjisë dhe politikave. Publikimet e tyre, nga DALL-E në ChatGPT, janë shpesh shumë të lezetshme, por në vetvete ata vështirë se do të tërhiqnin entuziazëm pothuajse fetar me të cilin diskutohet shpesh kompania.

Ajo që e veçon OpenAI-n është ambicia e misionit të saj : “të sigurojë që inteligjenca e përgjithshme artificiale – sistemet e AI që janë përgjithësisht më të zgjuar se njerëzit – të përfitojnë të gjithë njerëzimin”. Shumë nga punonjësit e saj besojnë se ky qëllim është i arritshëm; se ndoshta me një dekadë më shumë (ose edhe më pak) – dhe disa trilionë dollarë – kompania do të ketë sukses në zhvillimin e sistemeve të AI që e bëjnë shumicën e punës njerëzore të vjetëruar.

E cila, siç ka thënë prej kohësh vetë kompania, është sa e rrezikshme aq edhe emocionuese.

“Superinteligjenca do të jetë teknologjia më me ndikim që ka shpikur ndonjëherë njerëzimi dhe mund të na ndihmojë të zgjidhim shumë nga problemet më të rëndësishme të botës,” një faqe rekrutimi për ekipin e Leike dhe Sutskever në shtetet OpenAI . “Por fuqia e madhe e superinteligjencës mund të jetë gjithashtu shumë e rrezikshme dhe mund të çojë në pafuqinë e njerëzimit apo edhe në zhdukjen e njerëzve. Ndërsa superinteligjenca duket e largët tani, ne besojmë se mund të arrijë këtë dekadë.”

Natyrisht, nëse superinteligjenca artificiale në jetët tona është e mundur (dhe ekspertët janë të ndarë ), ajo do të kishte implikime të mëdha për njerëzimin. OpenAI është pozicionuar historikisht si një aktor i përgjegjshëm që përpiqet të kapërcejë stimujt e thjeshtë komercialë dhe të sjellë AGI për të mirën e të gjithëve. Dhe ata kanë thënë se janë të gatshëm ta bëjnë këtë edhe nëse kjo kërkon ngadalësimin e zhvillimit , humbjen e mundësive të fitimit ose lejimin e mbikëqyrjes së jashtme.

“Ne nuk mendojmë se AGI duhet të jetë vetëm një gjë e Silicon Valley,” më tha bashkë-themeluesi i OpenAI Greg Brockman në 2019 , në ditët shumë më të qeta para ChatGPT. “Ne po flasim për teknologjinë që ndryshon botën. Dhe kështu, si mund të merrni përfaqësimin dhe qeverisjen e duhur atje? Ky është në fakt një fokus me të vërtetë i rëndësishëm për ne dhe diçka për të cilën vërtet duam një kontribut të gjerë.”

Struktura unike e korporatës e OpenAI – një kompani fitimprurëse e kontrolluar përfundimisht nga një organizatë jofitimprurëse – supozohej të rriste përgjegjshmërinë. “Askush nuk duhet t’i besohet këtu. Unë nuk kam aksione me supervotim. Unë nuk i dua ata,” siguroi Altman Emily Chang të Bloomberg në 2023 . “Bordi mund të më shkarkojë. Mendoj se kjo është e rëndësishme.” (Siç zbuloi bordi nëntorin e kaluar, ai mund të pushonte nga puna Altman, por nuk mundi ta bënte këtë lëvizje. Pas shkarkimit të tij, Altman bëri një marrëveshje për ta çuar kompaninë në mënyrë efektive te Microsoft , përpara se të rikthehej përfundimisht në detyrë dhe shumica e bordit dha dorëheqjen .)

Por nuk kishte asnjë shenjë më të fortë të përkushtimit të OpenAI-t ndaj misionit të tij sesa rolet e shquara të njerëzve si Sutskever dhe Leike, teknologë me një histori të gjatë angazhimi ndaj sigurisë dhe një gatishmëri në dukje të vërtetë për t’i kërkuar OpenAI-t të ndryshojë kursin nëse është e nevojshme. Kur i thashë Brockman-it në atë intervistë të 2019-ës, “Ju djema po thoni, ‘Ne do të ndërtojmë një inteligjencë artificiale të përgjithshme’,” preu Sutskever. “Ne do të bëjmë gjithçka që mund të bëhet në atë drejtim ndërsa gjithashtu duke u siguruar që ne ta bëjmë atë në një mënyrë të sigurt,” më tha ai.

Largimi i tyre nuk paralajmëron një ndryshim në misionin e OpenAI për ndërtimin e inteligjencës së përgjithshme artificiale – ky mbetet qëllimi. Por pothuajse me siguri paralajmëron një ndryshim në interesin e OpenAI për punën e sigurisë; Kompania nuk ka njoftuar se kush, nëse dikush, do të udhëheqë ekipin e superlinjës.

Dhe e bën të qartë se shqetësimi i OpenAI me mbikëqyrjen dhe transparencën e jashtme nuk mund të kishte qenë aq i thellë. Nëse dëshironi që mbikëqyrja e jashtme dhe mundësitë që pjesa tjetër e botës të luajë një rol në atë që po bëni, bërja e ish-punonjësve të nënshkruajnë NDA jashtëzakonisht kufizuese nuk ndjek saktësisht.

Kjo kontradiktë është në qendër të asaj që e bën OpenAI-n thellësisht zhgënjyese për ata prej nesh që kujdesen thellësisht për të siguruar që AI me të vërtetë të shkojë mirë dhe të përfitojë njerëzimin. A është OpenAI një kompani teknologjike e zhurmshme, nëse e mesme, që bën një asistent personal llafazan, apo një përpjekje trilion dollarësh për të krijuar një perëndi të AI?

Udhëheqja e kompanisë thotë se ata duan të transformojnë botën, se duan të jenë të përgjegjshëm kur e bëjnë këtë dhe se mirëpresin kontributin e botës se si ta bëjnë këtë me drejtësi dhe mençuri.

Por kur ka para reale në lojë – dhe ka shuma mahnitëse parash reale në lojë në garën për të dominuar AI – bëhet e qartë se ata ndoshta kurrë nuk synuan që bota të merrte kaq shumë kontribute. Procesi i tyre siguron që ish-punonjësit – ata që dinë më shumë për atë që po ndodh brenda OpenAI – nuk mund t’i tregojnë pjesës tjetër të botës se çfarë po ndodh.

Faqja e internetit mund të ketë ideale me mendje të lartë , por marrëveshjet e tyre të përfundimit janë plot me ligje të rrepta. Është e vështirë të ushtrosh përgjegjësi ndaj një kompanie, ish-punonjësit e së cilës janë të kufizuar të thonë “kam dhënë dorëheqjen”.

Zëri i ri i lezetshëm i ChatGPT mund të jetë simpatik, por nuk po ndihem veçanërisht i dashuruar.