Anthropic ka rregulla të reja për një peizazh më të rrezikshëm të inteligjencës artificiale

foto

Anthropic ka përditësuar politikën e përdorimit për chatbot-in e saj Claude AI në përgjigje të shqetësimeve në rritje në lidhje me sigurinë. Përveç futjes së rregullave më të rrepta të sigurisë kibernetike, Anthropic tani specifikon disa nga armët më të rrezikshme që njerëzit nuk duhet të zhvillojnë duke përdorur Claude.

foto

Anthropic nuk i thekson ndryshimet e bëra në politikën e saj të armëve në postimin përmbledhës të ndryshimeve të saj, por një krahasim midis politikës së vjetër të përdorimit të kompanisë dhe asaj të resë zbulon një ndryshim të dukshëm. Megjithëse Anthropic më parë ndalonte përdorimin e Claude për të “prodhuar, modifikuar, projektuar, tregtuar ose shpërndarë armë, eksplozivë, materiale të rrezikshme ose sisteme të tjera të projektuara për të shkaktuar dëm ose humbje të jetës njerëzore”, versioni i përditësuar e zgjeron këtë duke ndaluar posaçërisht zhvillimin e eksplozivëve me rendiment të lartë, së bashku me armët biologjike, bërthamore, kimike dhe radiologjike (CBRN).

foto

Në maj, Anthropic zbatoi mbrojtjen “Niveli i Sigurisë së IA-së 3” së bashku me lançimin e modelit të saj të ri Claude Opus 4. Masat mbrojtëse janë krijuar për ta bërë modelin më të vështirë për t’u thyer nga sistemi, si dhe për të ndihmuar në parandalimin e tij nga ndihma në zhvillimin e armëve CBRN.

Në postimin e saj, Anthropic pranon gjithashtu rreziqet që paraqesin mjetet e inteligjencës artificiale agjentike, duke përfshirë Përdorimin e Kompjuterit, i cili i lejon Claude të marrë kontrollin e kompjuterit të një përdoruesi, si dhe Claude Code, një mjet që e integron Claude direkt në terminalin e një zhvilluesi. “Këto aftësi të fuqishme sjellin rreziqe të reja, duke përfshirë potencialin për abuzim në shkallë të gjerë, krijimin e programeve keqdashëse dhe sulmet kibernetike”, shkruan Anthropic.

Startupi i inteligjencës artificiale po i përgjigjet këtyre rreziqeve të mundshme duke përfshirë një seksion të ri “Mos kompromentoni sistemet kompjuterike ose të rrjetit” në politikën e tij të përdorimit. Ky seksion përfshin rregulla kundër përdorimit të Claude për të zbuluar ose shfrytëzuar dobësitë, për të krijuar ose shpërndarë programe keqdashëse, për të zhvilluar mjete për sulme mohimi të shërbimit dhe më shumë.

Për më tepër, Anthropic po e zbut politikën e saj rreth përmbajtjes politike. Në vend që të ndalojë krijimin e të gjitha llojeve të përmbajtjes që lidhet me fushatat politike dhe lobimin, Anthropic tani do t’i ndalojë njerëzit të përdorin Claude vetëm për “raste përdorimi që janë mashtruese ose prishëse të proceseve demokratike, ose që përfshijnë shënjestrimin e votuesve dhe fushatave”. Kompania sqaroi gjithashtu se kërkesat e saj për të gjitha rastet e përdorimit “me rrezik të lartë”, të cilat hyjnë në lojë kur njerëzit përdorin Claude për të bërë rekomandime për individë ose klientë, zbatohen vetëm për skenarët që përballen me konsumatorët, jo për përdorim nga bizneset.