OpenAI thuhet se është shtrydhur përmes testimit të sigurisë për GPT-4 Omni në vetëm një javë
OpenAI thuhet se ka kompresuar testimin e sigurisë për modelin e tij më të fundit të AI, GPT-4 Omni, në vetëm një javë.
Washington Post raporton se disa punonjës e kritikuan kompaninë për prioritizimin e shpejtësisë mbi tërësinë. Sipas tre burimeve të njohura me këtë çështje, anëtarët e ekipit të sigurisë u ndjenë nën presion për të përshpejtuar protokollin e ri të testimit të rrezikut katastrofik për të përmbushur datën e nisjes në maj të caktuar nga udhëheqja. “Ne në thelb dështuam në proces,” tha një burim anonim.
OpenAI madje kishte ftuar punonjësit në një festë të festimit të nisjes përpara se të fillonte testimi. “Ata planifikuan nisjen pas festës përpara se të dinin nëse ishte e sigurt për të nisur”, zbuloi një burim i brendshëm.
Zëdhënësja e OpenAI, Lindsey Held, tha se kompania “nuk e ndërpreu procesin tonë të sigurisë, megjithëse ne e kuptojmë se nisja ishte stresuese për ekipet tona”. Ajo shtoi se OpenAI kreu testime “të gjera të brendshme dhe të jashtme” për të përmbushur detyrimet rregullatore.
Një përfaqësues i paidentifikuar i ekipit të gatishmërisë pranoi se i gjithë testimi ishte bërë, por në një afat kohor të ngjeshur. OpenAI tani po “rimendon të gjithë mënyrën tonë për ta bërë atë” dhe qasja Omni “nuk ishte mënyra më e mirë për ta bërë atë”, tha përfaqësuesi.
Nxitimi i OpenAI është gjithashtu i dukshëm në lëshimin e vonuar të funksionalitetit të zërit të GPT-4 Omni, i planifikuar tani për vjeshtë për shkak të testeve të vazhdueshme të sigurisë. Kjo vjen pas komunikimeve konfuze që bënë që shumë përdorues të prisnin aftësitë e zërit menjëherë pas lëshimit të Omni.
Disa studiues të rangut të lartë të sigurisë janë larguar gjithashtu kohët e fundit nga OpenAI, disa duke kritikuar hapur praktikat e sigurisë të kompanisë. William Saunders, i cili u largua në shkurt 2024, tha në një podcast se OpenAI ishte bërë më shumë një kompani produktesh, duke shtuar se ai “nuk donte të përfundonte duke punuar në Titanikun e AI”.
Pamja e madhe lejon dy përfundime: Ose OpenAI po vepron në mënyrë të pamatur dhe të pakujdesshme, duke pranuar rreziqe sociale për hir të suksesit tregtar.
Ose menaxhmenti beson se shqetësimet e sigurisë në lidhje me AI-në gjeneruese të sotme janë të ekzagjeruara, se shfaqja e AGI është plotësisht e paqartë dhe se çështja e sigurisë së AI është mbivlerësuar dhe shërben kryesisht për një funksion marketingu.