Microsoft pretendon se mjeti i tij i sigurisë AI jo vetëm që gjen gabime, por edhe i rregullon ato
Microsoft po lançon një veçori të re të quajtur korrigjim që bazohet në përpjekjet e kompanisë për të luftuar pasaktësitë e AI. Konsumatorët që përdorin Microsoft Azure për të fuqizuar sistemet e tyre të AI tani mund të përdorin aftësinë për të zbuluar dhe rishkruar automatikisht përmbajtjen e pasaktë në rezultatet e AI.
Tipari i korrigjimit është i disponueshëm në pamje paraprake si pjesë e Studio Azure AI një grup mjetesh sigurie të krijuara për të zbuluar dobësitë, për të gjetur “halucinacione” dhe për të bllokuar kërkesat e dëmshme. Pasi të aktivizohet, sistemi i korrigjimit do të skanojë dhe identifikojë pasaktësitë në daljen e AI duke e krahasuar atë me materialin burimor të një klienti.
Nga atje, ai do të nxjerrë në pah gabimin, do të sigurojë informacione se pse është i pasaktë dhe do të rishkruajë përmbajtjen në fjalë – të gjitha “përpara se përdoruesi të jetë në gjendje të shohë” pasaktësinë. Ndërsa kjo duket si një mënyrë e dobishme për të adresuar marrëzitë e përdorura shpesh nga modelet e AI , mund të mos jetë një zgjidhje plotësisht e besueshme.
Vertex AI, platforma cloud e Google për kompanitë që zhvillojnë sisteme AI, ka një veçori që “bazon” modelet e AI duke kontrolluar rezultatet kundrejt Google Search, të dhënat e vetë një kompanie dhe (së shpejti) grupet e të dhënave të palëve të treta.
Në një deklaratë për TechCrunch, një zëdhënës i Microsoft tha se sistemi i “korrigjimit” përdor “modele të vogla gjuhësore dhe modele të mëdha gjuhësore për të lidhur rezultatet me dokumentet e tokëzimit”, që do të thotë se as nuk është imun ndaj gabimeve. “Është e rëndësishme të theksohet se zbulimi i tokëzimit nuk zgjidh për ‘saktësinë’, por ndihmon në harmonizimin e rezultateve gjeneruese të AI me dokumentet e tokëzimit,” tha Microsoft për TechCrunch.