Kompanitë kryesore të inteligjencës artificiale kanë menaxhim rreziku të “papranueshëm”

foto

Kompanitë kryesore të inteligjencës artificiale në botë kanë nivele “të papranueshme” të menaxhimit të riskut dhe një “mungesë të dukshme angazhimi në shumë fusha të sigurisë”, sipas dy studimeve të reja të botuara të enjten.

foto

Rreziqet e inteligjencës artificiale të sotme – sipas pranimit të vetë shumë kompanive kryesore – mund të përfshijnë ndihmën e inteligjencës artificiale ndaj aktorëve të këqij për të kryer sulme kibernetike ose për të krijuar armë biologjike. Modelet e ardhshme të inteligjencës artificiale, shqetësohen shkencëtarët kryesorë, se mund t’i shpëtojnë krejtësisht kontrollit njerëzor.

foto

Studimet u kryen nga organizatat jofitimprurëse SaferAI dhe Instituti i së Ardhmes së Jetës (FLI). Secili ishte i dyti i këtij lloji, në atë që grupet shpresojnë të jetë një seri studimesh që do të nxisë kompanitë kryesore të IA-së të përmirësojnë praktikat e tyre.

Ne duam ta bëjmë shumë të lehtë për njerëzit që të shohin se kush jo vetëm që flet, por edhe vepron sipas planit, thotë Max Tegmark, president i FLI-së.

SaferAI vlerësoi protokollet e menaxhimit të riskut të kompanive kryesore të IA-së (të njohura edhe si politika të shkallëzimit të përgjegjshëm) për të vlerësuar secilën kompani në qasjen e saj ndaj identifikimit dhe zbutjes së rreziqeve të IA-së.

Asnjë kompani e IA-së nuk mori një rezultat më të mirë se “i dobët” në vlerësimin e SaferAI-së për pjekurinë e tyre në menaxhimin e riskut. Rezultati më i lartë ishte Anthropic (35%), e ndjekur nga OpenAI (33%), Meta (22%) dhe Google DeepMind (20%). xAI i Elon Musk mori një rezultat prej 18%.

Dy kompani, Anthropic dhe Google DeepMind, morën rezultate më të ulëta sesa herën e parë që u krye studimi, në tetor 2024. Rezultati do të thotë që OpenAI e ka tejkaluar Google duke u renditur i dyti në vlerësimet e SaferAI.

Siméon Campos, themeluesi i SaferAI, tha se Google mori rezultate relativisht të ulëta pavarësisht se bëri disa kërkime të mira mbi sigurinë, sepse kompania merr pak angazhime të forta në politikat e saj. Kompania gjithashtu publikoi një model kufitar më parë këtë vit, Gemini 2.5, pa ndarë informacion mbi sigurinë – në atë që Campos e quajti një “dështim të shëmtuar”. Një zëdhënës i Google DeepMind i tha TIME: “Ne jemi të përkushtuar për të zhvilluar IA-në në mënyrë të sigurt dhe të mbrojtur për të përfituar shoqërinë. Masat e sigurisë së IA-së përfshijnë një spektër të gjerë të zbutjeve të mundshme. Këto raporte të fundit nuk marrin parasysh të gjitha përpjekjet e sigurisë së IA-së të Google DeepMind, as të gjitha standardet e industrisë. Qasja jonë gjithëpërfshirëse ndaj sigurisë dhe mbrojtjes së IA-së shtrihet përtej asaj që është kapur.”

Rezultati i Anthropic gjithashtu ra që nga anketa e fundit e SaferAI në tetor. Kjo ndodhi pjesërisht për shkak të ndryshimeve që kompania bëri në politikën e saj të shkallëzimit të përgjegjshëm disa ditë para publikimit të modeleve Claude 4, të cilat bënë që Anthropic të hiqte dorë nga angazhimet e saj për të trajtuar kërcënimet e brendshme në kohën kur publikoi modele të atij kalibri. “Ky është një proces shumë i keq”, thotë Campos. Anthropic nuk iu përgjigj menjëherë një kërkese për koment.

Autorët e studimit thanë gjithashtu se metodologjia e tij ishte bërë më e detajuar që nga tetori i kaluar, gjë që shpjegon disa nga ndryshimet në vlerësim.

Kompanitë që përmirësuan më shumë rezultatet e tyre ishin xAI, e cila shënoi 18% krahasuar me 0% në tetor; dhe Meta, e cila shënoi 22% krahasuar me rezultatin e saj të mëparshëm prej 14%.

Studimi i FLI-së ishte më i gjerë, duke parë jo vetëm praktikat e menaxhimit të riskut, por edhe qasjet e kompanive ndaj dëmeve aktuale, sigurisë ekzistenciale, qeverisjes dhe ndarjes së informacionit. Një panel prej gjashtë ekspertësh të pavarur vlerësoi secilën kompani bazuar në një shqyrtim të materialeve të disponueshme publikisht, të tilla si politikat, punimet kërkimore dhe raportet e lajmeve, së bashku me të dhëna shtesë jo-publike që kompanive iu dha mundësia të ofronin. Nota më e lartë u vlerësua nga Anthropic (një C plus). OpenAI vlerësoi një C, dhe Google vlerësoi një C minus. (xAI dhe Meta vlerësuan të dyja me D.)

Megjithatë, në rezultatet e FLI-së për qasjen e secilës kompani ndaj “sigurisë ekzistenciale”, çdo kompani mori një vlerësim D ose më të ulët. “Të gjitha po thonë: duam të ndërtojmë makina superinteligjente që mund t’i tejkalojnë njerëzit në çdo mënyrë, dhe megjithatë, ato nuk kanë një plan se si do t’i kontrollojnë këto gjëra”, thotë Tegmark.