Anthropic akuzon laboratorët kinezë të AI për shfrytëzimin e Claude ndërsa United States debaton eksportet e çipave të AI
Anthropic po akuzon tre kompani kineze të inteligjencës artificiale se kanë krijuar më shumë se 24,000 llogari të rreme me modelin e saj të inteligjencës artificiale Claude për të përmirësuar modelet e tyre.

Laboratorët DeepSeek, Moonshot AI dhe MiniMax thuhet se gjeneruan më shumë se 16 milionë shkëmbime me Claude përmes këtyre llogarive duke përdorur një teknikë të quajtur “distilim”. Anthropic tha se laboratorët “shënjestruan aftësitë më të diferencuara të Claude: arsyetimin agjentik, përdorimin e mjeteve dhe kodimin”.

Akuzat vijnë në mes të debateve se si të zbatohen në mënyrë strikte kontrollet e eksportit të çipave të përparuar të inteligjencës artificiale, një politikë që synon të frenojë zhvillimin e inteligjencës artificiale në Kinë.
Distilimi është një metodë e zakonshme trajnimi që laboratorët e inteligjencës artificiale përdorin në modelet e tyre për të krijuar versione më të vogla dhe më të lira, por konkurrentët mund ta përdorin atë për të kopjuar në thelb detyrat e shtëpisë të laboratorëve të tjerë. OpenAI u dërgoi një memo ligjvënësve të Dhomës së Përfaqësuesve më herët këtë muaj duke akuzuar DeepSeek se përdor distilimin për të imituar produktet e saj.
DeepSeek bëri bujë për herë të parë një vit më parë kur lançoi modelin e tij të arsyetimit me burim të hapur R1, i cili pothuajse u barazua me laboratorët amerikanë të kufirit në performancë me një kosto shumë më të ulët. DeepSeek pritet që së shpejti të lançojë DeepSeek V4, modelin e tij më të fundit, i cili thuhet se mund të tejkalojë Claude të Anthropic dhe ChatGPT të OpenAI në kodim.
Shkalla e secilit sulm ndryshonte në fushëveprim. Anthropic gjurmoi më shumë se 150,000 shkëmbime nga DeepSeek që dukeshin se synonin përmirësimin e logjikës themelore dhe harmonizimit, konkretisht rreth alternativave të sigurta ndaj censurës ndaj pyetjeve të ndjeshme ndaj politikave.
Moonshot AI kishte më shumë se 3.4 milionë shkëmbime që synonin arsyetimin agjentik dhe përdorimin e mjeteve, kodimin dhe analizën e të dhënave, zhvillimin e agjentëve të përdorimit të kompjuterit dhe vizionin kompjuterik. Muajin e kaluar, firma publikoi një model të ri me burim të hapur Kimi K2.5 dhe një agjent kodimi.
13 milionë shkëmbimet e MiniMax synonin kodimin agjentik dhe përdorimin e orkestrimin e mjeteve. Anthropic tha se ishte në gjendje të vëzhgonte MiniMax në veprim, ndërsa ridrejtonte pothuajse gjysmën e trafikut të tij në tërheqjen e aftësive nga modeli më i fundit Claude kur u lançua.
Anthropic thotë se do të vazhdojë të investojë në mbrojtje që i bëjnë sulmet e distilimit më të vështira për t’u ekzekutuar dhe më të lehta për t’u identifikuar, por po bën thirrje për “një përgjigje të koordinuar në të gjithë industrinë e IA-së, ofruesit e cloud-it dhe politikëbërësit”.
Sulmet e distilimit vijnë në një kohë kur eksportet amerikane të çipave në Kinë janë ende të debatuara ashpër. Muajin e kaluar, administrata Trump lejoi zyrtarisht kompanitë amerikane si Nvidia të eksportonin çipa të përparuar të inteligjencës artificiale (si H200) në Kinë. Kritikët kanë argumentuar se ky lehtësim i kontrolleve të eksportit rrit kapacitetin informatik të Kinës në një kohë kritike në garën globale për dominimin e inteligjencës artificiale.
Anthropic thotë se shkalla e nxjerrjes që kryhet nga DeepSeek, MiniMax dhe Moonshot “kërkon qasje në çipa të përparuar”.
“Prandaj, sulmet ndaj distilimit përforcojnë arsyetimin për kontrollet e eksportit: qasja e kufizuar në çip kufizon si trajnimin e drejtpërdrejtë të modelit ashtu edhe shkallën e distilimit të paligjshëm”, sipas blogut të Anthropic.
Dmitri Alperovitch, kryetar i think-tankut Silverado Policy Accelerator dhe bashkëthemelues e ish-drejtor teknologjik i CrowdStrike, i tha TechCrunch se nuk është i befasuar që sheh këto sulme.
“Ka kohë që është e qartë se një pjesë e arsyes për përparimin e shpejtë të modeleve kineze të inteligjencës artificiale ka qenë vjedhja nëpërmjet distilimit të modeleve kufitare amerikane. Tani e dimë këtë me siguri”, tha Alperovitch. “Kjo duhet të na japë arsye edhe më bindëse për të refuzuar shitjen e çipave të inteligjencës artificiale te ndonjë prej këtyre [kompanive], gjë që vetëm sa do t’u sillte atyre më shumë përparësi.”
Anthropic tha gjithashtu se distilimi jo vetëm që kërcënon të minojë dominimin amerikan të inteligjencës artificiale, por gjithashtu mund të krijojë rreziqe për sigurinë kombëtare.
“Anthropic dhe kompani të tjera amerikane ndërtojnë sisteme që parandalojnë aktorët shtetërorë dhe jo-shtetërorë nga përdorimi i inteligjencës artificiale, për shembull, për të zhvilluar armë biologjike ose për të kryer aktivitete kibernetike dashakeqe”, thuhet në postimin në blog të Anthropic. “Modelet e ndërtuara përmes distilimit të paligjshëm nuk ka gjasa t’i ruajnë ato mbrojtje, që do të thotë se aftësitë e rrezikshme mund të përhapen me shumë mbrojtje të hequra plotësisht.”
Anthropic vuri në dukje qeveritë autoritare që përdorin inteligjencën artificiale në kufij për gjëra të tilla si “operacione kibernetike sulmuese, fushata dezinformimi dhe mbikëqyrje masive”, një rrezik që shumëfishohet nëse këto modele janë me burim të hapur.
