Denoncuesit e OpenAI përshkruajnë kulturë të pamatur dhe të fshehtë

foto

Një grup personash të brendshëm të OpenAI-së po i japin bilbil asaj që ata thonë se është një kulturë e pamaturisë dhe fshehtësisë në kompaninë e inteligjencës artificiale në San Francisko, e cila po garon për të ndërtuar sistemet më të fuqishme të AI të krijuara ndonjëherë.

foto

Grupi, i cili përfshin nëntë punonjës aktualë dhe ish-punonjës të OpenAI, është mbledhur ditët e fundit rreth shqetësimeve të përbashkëta se kompania nuk ka bërë mjaftueshëm për të parandaluar që sistemet e saj të AI të bëhen të rrezikshme.

Anëtarët thonë se OpenAI, i cili filloi si një laborator kërkimor jofitimprurës dhe shpërtheu në publik me lëshimin e ChatGPT në 2022 , po i jep përparësi fitimeve dhe rritjes ndërsa përpiqet të ndërtojë inteligjencën e përgjithshme artificiale, ose AGI, termi i industrisë për një kompjuter. program i aftë për të bërë gjithçka që një njeri mundet.

Ata gjithashtu pretendojnë se OpenAI ka përdorur taktika të forta për të parandaluar punëtorët që të shprehin shqetësimet e tyre për teknologjinë, duke përfshirë marrëveshjet kufizuese të mospërçmimit që punonjësve në largim iu kërkua të nënshkruanin.

“OpenAI është me të vërtetë i emocionuar për ndërtimin e AGI dhe ata po garojnë pamatur për të qenë të parët atje”, tha Daniel Kokotajlo, një ish-kërkues në divizionin e qeverisjes së OpenAI dhe një nga organizatorët e grupit.

Grupi publikoi një letër të hapur të martën duke u bërë thirrje kompanive kryesore të AI, përfshirë OpenAI, të krijojnë transparencë më të madhe dhe më shumë mbrojtje për sinjalizuesit.

Anëtarë të tjerë përfshijnë William Saunders, një inxhinier kërkimi që u largua nga OpenAI në shkurt, dhe tre ish-punonjës të tjerë të OpenAI: Carroll Wainwright, Jacob Hilton dhe Daniel Ziegler. Disa punonjës aktualë të OpenAI e miratuan letrën në mënyrë anonime sepse kishin frikë nga hakmarrja nga kompania, tha zoti Kokotajlo. Një punonjës aktual dhe një ish-punonjës i Google DeepMind, laboratori qendror i AI i Google, gjithashtu nënshkruan.

Një zëdhënëse për OpenAI, Lindsey Held, tha në një deklaratë: “Ne jemi krenarë për të kaluarën tonë që ofron sistemet më të afta dhe më të sigurta të AI dhe besojmë në qasjen tonë shkencore për trajtimin e rrezikut. Ne pajtohemi se debati rigoroz është vendimtar duke pasur parasysh rëndësinë e kësaj teknologjie dhe ne do të vazhdojmë të angazhohemi me qeveritë, shoqërinë civile dhe komunitetet e tjera në mbarë botën.”

Një zëdhënës i Google nuk pranoi të komentojë.

Fushata vjen në një moment të vështirë për OpenAI. Ajo është ende duke u rikuperuar nga një tentativë për grusht shteti vitin e kaluar, kur anëtarët e bordit të kompanisë votuan për të shkarkuar Sam Altman, shefin ekzekutiv, për shqetësimet rreth sinqeritetit të tij. Z. Altman u kthye disa ditë më vonë dhe bordi u riformua me anëtarë të rinj.

Kompania gjithashtu përballet me beteja ligjore me krijuesit e përmbajtjes që e kanë akuzuar atë për vjedhje të veprave të mbrojtura nga të drejtat e autorit për të trajnuar modelet e saj. (New York Times paditi OpenAI-n dhe partnerin e saj, Microsoft-in, për shkelje të të drejtave të autorit vitin e kaluar.) Dhe zbulimi i fundit i një asistenti zëri hiper-realist u dëmtua nga një grindje publike me aktoren e Hollivudit Scarlett Johansson, e cila pretendoi se OpenAI kishte imituar zëri i saj pa leje.

Por asgjë nuk ka ngecur si akuza se OpenAI ka qenë shumë i ashpër përsa i përket sigurisë.

Muajin e kaluar, dy studiues të vjetër të AI – Ilya Sutskever dhe Jan Leike – u larguan nga OpenAI nën një re. Dr. Sutskever, i cili kishte qenë në bordin e OpenAI dhe votoi për shkarkimin e zotit Altman, kishte ngritur alarmin për rreziqet e mundshme të sistemeve të fuqishme të AI. Largimi i tij u pa nga disa punonjës me mendje sigurie si një pengesë.

Kështu ishte edhe largimi i Dr. Leike, i cili së bashku me Dr. Sutskever kishin udhëhequr ekipin e “superlinjimit” të OpenAI, i cili u fokusua në menaxhimin e rreziqeve të modeleve të fuqishme të AI. Në një seri postimesh publike që njoftonin largimin e tij, Dr. Leike tha se ai besonte se “kultura dhe proceset e sigurisë kanë zënë vendin e dytë ndaj produkteve me shkëlqim”.

As Dr. Sutskever dhe as Dr. Leike nuk nënshkruan letrën e hapur të shkruar nga ish-punonjësit. Por daljet e tyre nxitën ish-punonjësit e tjerë të OpenAI të flasin hapur.

“Kur u regjistrova për OpenAI, nuk u regjistrova për këtë qëndrim “Le t’i nxjerrim gjërat në botë dhe të shohim se çfarë ndodh dhe t’i rregullojmë ato më pas”, tha z. Saunders.

Disa nga ish-punonjësit kanë lidhje me altruizmin efektiv, një lëvizje e frymëzuar nga utilitarizmi që është shqetësuar vitet e fundit me parandalimin e kërcënimeve ekzistenciale nga AI. Sistemi i kontrolluar i AI mund të marrë përsipër dhe të zhdukë njerëzimin.

foto

Z. Kokotajlo, 31 vjeç, iu bashkua OpenAI në 2022 si studiues i qeverisjes dhe iu kërkua të parashikonte përparimin e AI. Ai nuk ishte, për ta thënë butë, optimist.

Në punën e tij të mëparshme në një organizatë të sigurisë së AI, ai parashikoi që AGI mund të mbërrinte në vitin 2050. Por pasi pa se sa shpejt po përmirësohej AI, ai shkurtoi afatet e tij kohore. Tani ai beson se ka një shans 50 për qind që AGI të arrijë deri në vitin 2027 – në vetëm tre vjet.

Ai gjithashtu beson se probabiliteti që AI i avancuar do të shkatërrojë ose dëmtojë në mënyrë katastrofike njerëzimin – një statistikë e zymtë e shkurtuar shpesh në “p(doom)” në qarqet e AI – është 70 për qind.

Në OpenAI, z. Kokotajlo pa se edhe pse kompania kishte protokolle sigurie në fuqi – duke përfshirë një përpjekje të përbashkët me Microsoft-in e njohur si “bordi i sigurisë së vendosjes”, i cili supozohej të rishikonte modelet e reja për rreziqe të mëdha përpara se të publikoheshin – ata rrallë dukej se ngadalësonte ndonjë gjë.

Për shembull, tha ai, në vitin 2022 Microsoft filloi të testonte në heshtje në Indi një version të ri të motorit të tij të kërkimit Bing që disa punonjës të OpenAI besonin se përmbante një version të papublikuar në atë kohë të GPT-4, modeli më i avancuar i gjuhëve të mëdha të OpenAI. Z. Kokotajlo tha se i ishte thënë se Microsoft nuk kishte marrë miratimin e bordit të sigurisë përpara se të testonte modelin e ri dhe pasi bordi mësoi për testet – nëpërmjet një sërë raportesh se Bing po vepronte çuditërisht ndaj përdoruesve – nuk bëri asgjë për ta ndaluar Microsoft-in. nga shtrirja e tij më gjerësisht.

Një zëdhënës i Microsoft, Frank Shaw, i kundërshtoi këto pretendime. Ai tha se testet e Indisë nuk kishin përdorur GPT-4 ose ndonjë model OpenAI. Hera e parë që Microsoft lëshoi ​​teknologjinë e bazuar në GPT-4 ishte në fillim të vitit 2023, tha ai, dhe ajo u rishikua dhe u miratua nga një paraardhës i bordit të sigurisë.

Përfundimisht, tha Z. Kokotajlo, ai u bë aq i shqetësuar sa vitin e kaluar, ai i tha zotit Altman se kompania duhet të “orientohet drejt sigurisë” dhe të shpenzojë më shumë kohë dhe burime për t’u mbrojtur nga rreziqet e AI, në vend që të angazhohet përpara për të përmirësuar modelet e saj. Ai tha se zoti Altman kishte pretenduar se ishte dakord me të, por se asgjë nuk kishte ndryshuar shumë.

Në prill, ai u largua. Në një email drejtuar ekipit të tij, ai tha se po largohej sepse kishte “humbur besimin se OpenAI do të sillet me përgjegjësi” ndërsa sistemet e tij i afrohen inteligjencës në nivel njerëzor.

“Bota nuk është gati, dhe ne nuk jemi gati”, ka shkruar z. Kokotajlo. “Dhe jam i shqetësuar se po nxitojmë përpara pavarësisht dhe po racionalizojmë veprimet tona.”

OpenAI tha javën e kaluar se kishte filluar trajnimin e një modeli të ri të inteligjencës artificiale dhe se po formonte një komitet të ri sigurie për të eksploruar rreziqet që lidhen me modelin e ri dhe teknologjitë e tjera të ardhshme.

Kur po dilte, z. Kokotajlo refuzoi të nënshkruante dokumentet standarde të OpenAI për punonjësit që largoheshin, e cila përfshinte një klauzolë të rreptë mospërçmimi që i ndalonte ata të thoshin gjëra negative për kompaninë, ose përndryshe rrezikon t’u hiqet kapitali i tyre.

Shumë punonjës mund të humbasin miliona dollarë nëse refuzojnë të nënshkruajnë. Kapitali i zotëruar i zotit Kokotajlo ishte me vlerë rreth 1.7 milionë dollarë, tha ai, që përbënte shumicën dërrmuese të vlerës së tij neto dhe ai ishte i përgatitur të humbiste të gjitha.

(Një stuhi e vogël zjarri pasoi muajin e kaluar pasi Vox raportoi lajmet për këto marrëveshje. Në përgjigje, OpenAI pretendoi se nuk kishte tërhequr kurrë kapitalin e caktuar nga ish-punonjësit dhe nuk do ta bënte këtë. Z. Altman tha se ishte “i turpëruar” të mos kanë ditur për marrëveshjet dhe kompania tha se do të hiqte klauzolat e mospërfilljes nga dokumentet e saj standarde dhe do të lironte ish-punonjësit nga marrëveshjet e tyre.)

Në letrën e tyre të hapur, Z. Kokotajlo dhe ish-punonjësit e tjerë të OpenAI-t bëjnë thirrje për t’i dhënë fund përdorimit të marrëveshjeve të mospërfilljes dhe moszbulimit në OpenAI dhe kompani të tjera të AI.

“Marrëveshjet e gjera të konfidencialitetit na pengojnë të shprehim shqetësimet tona, me përjashtim të vetë kompanive që mund të dështojnë në adresimin e këtyre çështjeve,” shkruajnë ata.

Ata gjithashtu u bëjnë thirrje kompanive të AI që të “mbështesin një kulturë të kritikës së hapur” dhe të krijojnë një proces raportimi për punonjësit për të ngritur në mënyrë anonime shqetësimet e lidhura me sigurinë.

Ata kanë mbajtur një avokat pro bono, Lawrence Lessig, studiuesin dhe aktivistin e shquar ligjor. Z. Lessig këshilloi gjithashtu Frances Haugen, një ish-punonjëse e Facebook-ut, e cila u bë një informator dhe e akuzoi atë kompani për vendosjen e fitimeve përpara sigurisë.

Në një intervistë, z. Lessig tha se ndërsa mbrojtja tradicionale e sinjalizuesve zbatohej zakonisht për raportet e aktivitetit të paligjshëm, ishte e rëndësishme që punonjësit e kompanive të AI të ishin në gjendje të diskutonin lirisht rreziqet dhe dëmet e mundshme, duke pasur parasysh rëndësinë e teknologjisë.

“Punonjësit janë një linjë e rëndësishme e mbrojtjes së sigurisë dhe nëse nuk mund të flasin lirshëm pa ndëshkim, ai kanal do të mbyllet,” tha ai.

Znj. Held, zëdhënësja e OpenAI, tha se kompania kishte “rrugë për punonjësit për të shprehur shqetësimet e tyre”, duke përfshirë një linjë telefonike anonime për integritetin.

Z. Kokotajlo dhe grupi i tij janë skeptikë se vetëm vetërregullimi do të jetë i mjaftueshëm për t’u përgatitur për një botë me sisteme më të fuqishme të AI. Kështu që ata po bëjnë thirrje që ligjvënësit të rregullojnë edhe industrinë.

“Duhet të ketë një lloj strukture qeverisëse të përgjegjshme dhe transparente në krye të këtij procesi,” tha z. Kokotajlo. “Në vend që vetëm disa kompani të ndryshme private të garojnë me njëra-tjetrën dhe t’i mbajnë të gjitha të fshehta.”