Ish-punonjësit e OpenAI thërrasin Sam Altman që nuk mbështet as përpjekjet e sigurisë me prekje të lehta
OpenAI po kundërshton një projekt-ligj të parë të këtij lloji për të rregulluar industrinë e AI në Kaliforni duke bërë që disa nga ish-punonjësit e kompanisë gjithashtu të vënë në pikëpyetje përkushtimin e kompanisë për sigurinë.
Në fillim të kësaj jave, OpenAI publikoi një letër që kundërshtonte ndryshimet e fundit të bëra në SB 1047, një projekt-ligj i ri që qarkullon nëpër Sacramento që kërkon të adresojë rreziqet e AI.
“Ne i bashkohemi laboratorëve të tjerë të Al, zhvilluesve, ekspertëve dhe anëtarëve të delegacionit të Kongresit të Kalifornisë për të kundërshtuar me respekt SB 1047 dhe mirëpresim mundësinë për të përshkruar disa nga shqetësimet tona kryesore,” i shkroi kompania senatorit të Kalifornisë Scott Wiener, i cili prezantoi projektligjin në shkurt.
Ish-punonjësit thonë se kundërshtimi i kompanisë ndaj legjislacionit është shembulli i fundit i premtimeve të rreme të kompanisë dhe po synojnë CEO Sam Altman.
“Sam Altman, ish-shefi ynë, ka kërkuar vazhdimisht për rregullimin e Al. Tani, kur rregullimi aktual është në tryezë, ai e kundërshton atë,” shkruajtën ish-punonjësit e OpenAI William Saunders dhe Daniel Kokotajlo në një letër të hapur drejtuar udhëheqësve të shtetit të Kalifornisë. “OpenAI kundërshton edhe kërkesat jashtëzakonisht të lehta në SB 1047, shumica e të cilave OpenAl pretendon të angazhohet vullnetarisht, duke ngritur pikëpyetje në lidhje me fuqinë e këtyre angazhimeve.”
Saunders, i cili punoi në OpenAI për rreth tre vjet, u largua shkurtin e kaluar dhe ishte një nga 13 nënshkruesit e një letre të botuar në qershor që kërkonte veprime për të mbajtur kompanitë e AI të përgjegjshme. Kokotajlo, i cili punoi në ekipin e qeverisjes, dha dorëheqjen në prill pasi humbi besimin se kompania do të “sillet me përgjegjësi” ndërsa punon për të zhvilluar inteligjencën e përgjithshme artificiale, një formë ende teorike e AI që ka aftësi arsyetimi njerëzore.
Ankesa kryesore e autorëve kundër OpenAI është se po frenon mbrojtjen e sinjalizuesve.
Në gjendjen e tij aktuale, SB 1047 i kufizon zhvilluesit e modeleve të përzgjedhura të AI “nga pengimi i një punonjësi nga zbulimi i informacionit, ose hakmarrja kundër një punonjësi për zbulimin e informacionit, tek Prokurori i Përgjithshëm ose Komisioneri i Punës nëse punonjësi ka arsye të arsyeshme të besojë se informacioni tregon zhvilluesi nuk është në përputhje me disa kërkesa ose që modeli i mbuluar paraqet një rrezik të paarsyeshëm të dëmtimit kritik.”
Autorët thanë se OpenAI, ndërkohë, “kërkoi që ne të hiqnim të drejtat tona për të kritikuar ndonjëherë kompaninë.” Ata thanë se legjislacioni ekzistues federal që OpenAI po përdor për të mbështetur rastin e tij është “mjerisht i pamjaftueshëm”.
Ata thanë se shpresonin se letra e tyre do të ndihmonte në shtyrjen e legjislaturës së Kalifornisë për të miratuar SB 1047. “Me rregullimin e duhur, ne shpresojmë se OpenAl mund të përmbushë ende deklaratën e misionit të tij për ndërtimin e sigurt të AGI,” shkruajtën ata.
Në një email për Business Insider, një zëdhënës i OpenAI tha se letra keqinterpretonte pozicionin e kompanisë për projektligjin.
“Ne nuk pajtohemi fuqimisht me keqkarakterizimin e pozicionit tonë për SB 1047. Siç kemi theksuar në letrën tonë drejtuar senatorit Wiener, ne mbështesim fokusin e SB 1047 në zhvillimin dhe vendosjen e sigurt të AI, por fuqimisht besojmë se rregulloret kufitare të sigurisë së AI duhet të zbatohen në niveli federal për shkak të implikimeve të tyre për sigurinë kombëtare dhe konkurrencën – kjo është arsyeja pse ne kemi miratuar legjislacionin në Kongres dhe jemi të përkushtuar të punojmë me Institutin e Sigurisë së AI të SHBA-së.”
Ata shtuan, “Ne vlerësojmë dispozitat e sinjalizuesit në projekt-ligj, të cilat janë në përputhje me mbrojtjen që kemi tashmë në zbatim sipas politikës së rritjes së shqetësimeve të OpenAI.”