Anthropic ndalon kompanitë e kontrolluara kryesisht nga Kina, Rusia, Irani dhe Koreja e Veriut nga përdorimi i Claude

Anthropic po i shtrëngon kushtet e shërbimit. Duke vazhduar më tej, kompanitë që kontrollohen me shumicë nga subjekte nga Kina, Rusia, Irani ose Koreja e Veriut do të ndalohen të përdorin modelet e inteligjencës artificiale Claude për shkak të shqetësimeve për sigurinë kombëtare.

Anthropic nuk do t’u ofrojë më shërbimet e saj grupeve që zotërohen kryesisht nga subjekte kineze. Kjo shënon herën e parë që një kompani e madhe amerikane e inteligjencës artificiale ka bërë një ndryshim të tillë politikash. Rregulli i ri, i cili hyn në fuqi menjëherë, zbatohet edhe për vendet e tjera që SHBA-të i klasifikojnë si kundërshtare, duke përfshirë Rusinë, Iranin dhe Korenë e Veriut.

Ky veprim zgjeron kushtet ekzistuese të Anthropic, të cilat tashmë kufizojnë aksesin në rajone të caktuara për arsye ligjore dhe sigurie. Përditësimi është hartuar për të mbyllur një boshllëk ligjor që më parë u lejonte kompanive nga shtetet autoritare të përdornin modelet e inteligjencës artificiale të Anthropic.
Anthropic thotë se kompanitë nga rajone të kufizuara si Kina kanë vazhduar të kenë akses në shërbimet e saj duke krijuar degë në vende të tjera. Financial Times thekson një numër në rritje të degëve kineze në Singapor që përdoren për të anashkaluar kontrollet dhe për të blerë teknologji amerikane.
Anthropic argumenton se firmat e kontrolluara nga regjimet autoritare mund të detyrohen me ligj të ndajnë të dhëna dhe të punojnë me agjencitë e inteligjencës, duke paraqitur rreziqe për sigurinë kombëtare. Këto kompani mund të shfrytëzojnë aftësitë e inteligjencës artificiale për të zhvilluar mjete për agjencitë ushtarake dhe të inteligjencës rivale, ose të përshpejtojnë zhvillimin e tyre të inteligjencës artificiale përmes teknikave si distilimi i modelit.
Politika e përditësuar tani ndalon përdorimin nga kompanitë, struktura e pronësisë së të cilave i vendos ato nën juridiksionin e rajoneve ku produktet e Anthropic nuk lejohen. Në mënyrë specifike, ajo zbatohet për subjektet që drejtpërdrejt ose tërthorazi zotërohen më shumë se 50 përqind nga firmat me seli në rajone të pambështetura.
Sipas Financial Times, firmat e mëdha kineze të teknologjisë si ByteDance, Tencent dhe Alibaba mund të preken. Ndalimi mbulon si klientët e drejtpërdrejtë ashtu edhe organizatat që kanë akses në modelet Anthropic nëpërmjet shërbimeve cloud.
Një drejtues i Anthropic pranoi se kompania ka të ngjarë të humbasë një pjesë të biznesit ndaj konkurrentëve si rezultat. Ndikimi financiar në të ardhurat globale vlerësohet në vetëm qindra miliona dollarë. Megjithatë, Anthropic thotë se ky veprim është i nevojshëm për të adresuar një problem të rëndësishëm.
Chatbot-et amerikanë si Claude dhe ChatGPT janë zyrtarisht të bllokuar në Kinë, por ende mund të arrihen nëpërmjet VPN-ve. Ndërkohë, Kina ka zhvilluar një numër alternativash të forta lokale, duke përfshirë Qwen, Deepseek, Kimi dhe GLM. Në praktikë, rregullat e reja të Anthropic mund të kenë një ndikim të vërtetë në Kinë vetëm pasi trajnimet në përshpejtuesit e përparuar të IA-së, siç janë çipat e ndaluar të Nvidia-s, të jenë dukshëm më të mëdha se ato të mundshme në harduerin vendas. Deri atëherë, kompanitë kineze ka të ngjarë të vazhdojnë të mbështeten në zgjidhje vendase.