Kina urdhëron kompanitë e AI që të harmonizojnë modelet e tyre me vlerat socialiste
Rregullatorët kinezë po testojnë modelet e AI për të siguruar që ato ndjekin mesazhet e miratuara nga qeveria. Kompanitë e teknologjisë duhet të përshtatin sistemet e tyre për të shmangur censurën.
Administrata e Hapësirës Kibernetike të Kinës (CAC) po kërkon që kompanitë si ByteDance dhe Alibaba të dorëzojnë modelet e tyre të AI për testim qeveritar. Qëllimi është që sistemet “të mishërojnë vlerat thelbësore socialiste”, sipas disa burimeve të njohura me procesin që folën për Financial Times.
Gjatë testimit, modelet gjuhësore duhet t’i përgjigjen një sërë pyetjesh, shumë të lidhura me tema të ndjeshme politikisht dhe Presidentin Xi Jinping. Vlerësimi shqyrton gjithashtu të dhënat e trajnimit dhe procedurat e sigurisë.
Një punonjës i një kompanie të AI në Hangzhou tha se testet zgjatën muaj dhe përfshinin prova dhe gabime. Kompanitë gjithashtu duhet të përpilojnë mijëra fjalë kyçe dhe pyetje të ndjeshme që bien ndesh me “vlerat thelbësore socialiste”. Kjo bazë të dhënash duhet të përditësohet çdo javë.
Thjesht bllokimi i një sërë pyetjesh dhe temash nuk mjafton: Modelet mund të refuzojnë jo më shumë se 5% të pyetjeve në testet e sigurisë, ndërkohë që shmangin me siguri tema veçanërisht të ndjeshme siç është goditja e Sheshit Tiananmen.
Disa kompani kanë zhvilluar sisteme të sofistikuara për të zëvendësuar përgjigjet problematike në kohë reale. Kompania mëmë e TikTok, ByteDance, thuhet se është një lider në këtë fushë. Një laborator i Universitetit Fudan e vlerësoi chatbotin e kompanisë me një “normë të pajtueshmërisë së sigurisë” prej 66.4% – shumë më e lartë se 7.1% e GPT-4o.
Fang Binxing, i njohur në Kinë si “babai i Firewallit të Madh”, thuhet se po zhvillon protokolle sigurie për modelet e AI që do të vendosen në mbarë vendin. Në një konferencë të fundit teknologjike, ai bëri thirrje për “monitorim të sigurisë në internet në kohë reale” të modeleve publike.
Peter Gostev, kreu i AI në Moonpig, së fundmi demonstroi një mënyrë të thjeshtë për të marrë një model të gjuhës kineze për të diskutuar tema të ndjeshme si incidenti i Tiananmenit. Ai manipuloi chatbotin publik të DeepSeek duke përzier gjuhë dhe duke shkëmbyer fjalë. Pa këtë metodë, chatbot do të fshinte mesazhet rreth temave tabu.
Kjo nxjerr në pah sfidën e Kinës: ajo dëshiron të udhëheqë në AI ndërsa kontrollon përmbajtjen e gjeneruar nga AI – një teknologji që është në thelb rezistente ndaj kontrollit. Kina duhet të gjejë një mënyrë për ta bërë këtë pa penguar përparimin e AI.