OpenAI dhe Anthropic kryen vlerësime sigurie për sistemet e AI-së së njëra-tjetrës

foto

Shumicën e kohës, kompanitë e inteligjencës artificiale janë të bllokuara në një garë për në krye, duke e trajtuar njëra-tjetrën si rivale dhe konkurrente. Sot, OpenAI dhe Anthropic zbuluan se ranë dakord të vlerësonin harmonizimin e sistemeve të disponueshme publikisht të njëra-tjetrës dhe ndanë rezultatet e analizave të tyre. Raportet e plota janë mjaft teknike, por ia vlen t’i lexojnë të gjithë ata që ndjekin thelbin e zhvillimit të inteligjencës artificiale. Një përmbledhje e gjerë tregoi disa të meta në ofertat e secilës kompani, si dhe zbuloi këshilla se si të përmirësohen testet e sigurisë në të ardhmen.

foto

Antropiku e tha këtë modelet e vlerësuara të OpenAI për “serhidhje, sinjalizim, vetëmbrojtje dhe mbështetje të keqpërdorimit nga njerëzit, si dhe aftësi që lidhen me minimin e vlerësimeve dhe mbikëqyrjes së sigurisë së IA-së”. Rishikimi i saj zbuloi se modelet o3 dhe o4-mini nga OpenAI ishin në përputhje me rezultatet për modelet e veta, por ngriti shqetësime në lidhje me keqpërdorimin e mundshëm me modelet për qëllime të përgjithshme GPT-4o dhe GPT-4.1. Kompania tha gjithashtu se serhitja ishte një problem në një farë mase me të gjitha modelet e testuara përveç o3.

foto

Testet e Anthropic nuk përfshinë versionin më të fundit të OpenAI.GPT-5 ka një veçori të quajtur Përfundime të Sigurta, e cila synon të mbrojë përdoruesit dhe publikun nga pyetjet potencialisht të rrezikshme. OpenAI u përball kohët e fundit me problemin e saj. Padia e parë për vdekje të padrejtëpas një rasti tragjik ku një adoleshent diskutoi përpjekjet dhe planet për vetëvrasje me ChatGPT për muaj të tërë përpara se t’i merrte jetën vetes.

Nga ana tjetër, OpenAIkryen teste mbi modelet antropikepër hierarkinë e udhëzimeve, thyerjen e sistemit të sigurisë, halucinacionet dhe planifikimin. Modelet Claude në përgjithësi performuan mirë në testet e hierarkisë së udhëzimeve dhe kishin një shkallë të lartë refuzimi në testet e halucinacioneve, që do të thotë se ata kishin më pak gjasa të ofronin përgjigje në rastet kur pasiguria nënkuptonte që përgjigjet e tyre mund të ishin të gabuara.

Lëvizja e këtyre kompanive për të kryer një vlerësim të përbashkët është interesante, veçanërisht pasi OpenAI dyshohet se shkeli kushtet e shërbimit të Anthropic duke i detyruar programuesit të përdorin Claude në procesin e ndërtimit të modeleve të reja GPT, gjë që çoi në Anthropic. ndalim. Qasja e OpenAI në mjetet e saj në fillim të këtij muaji. Por siguria me mjetet e IA-së është bërë një problem më i madh, pasi gjithnjë e më shumë kritikë dhe ekspertë ligjorë kërkojnë udhëzime për të mbrojtur përdoruesit, veçanërisht të miturit.