Meta fajëson halucinacionet pasi inteligjenca artificiale e saj tha se të shtënat në mitingun e Trump nuk ndodhën
Asistenti i AI i Metës tha gabimisht se tentativa për vrasjen e fundit të ish-presidentit Donald Trump nuk ndodhi, një gabim që një ekzekutiv i kompanisë po ia atribuon tani teknologjisë që fuqizon chatbot-in e saj dhe të tjerëve.
Në një postim në blogun e kompanisë të botuar të martën, Joel Kaplan, kreu global i politikave të Metës, i quan përgjigjet e inteligjencës artificiale të saj ndaj pyetjeve në lidhje me të shtënat “të pafat”. Ai thotë se Meta AI u programua fillimisht për të mos iu përgjigjur pyetjeve në lidhje me tentativën e vrasjes, por kompania e hoqi atë kufizim pasi njerëzit filluan ta vinin re. Ai gjithashtu pranon se “në një numër të vogël rastesh, Meta AI vazhdoi të jepte përgjigje të pasakta, duke përfshirë ndonjëherë pohimin se ngjarja nuk ndodhi – të cilën ne po punojmë shpejt për ta adresuar”.
“Këto lloj përgjigjesh referohen si halucinacione, që është një çështje në të gjithë industrinë që e shohim në të gjitha sistemet gjeneruese të AI dhe është një sfidë e vazhdueshme për mënyrën se si AI trajton ngjarjet në kohë reale në vazhdim”, vazhdon Kaplan, i cili drejton lobimin e Metës. përpjekjet. “Ashtu si të gjitha sistemet gjeneruese të AI, modelet mund të kthejnë rezultate të pasakta ose të papërshtatshme, dhe ne do të vazhdojmë t’i adresojmë këto çështje dhe t’i përmirësojmë këto veçori ndërsa ato zhvillohen dhe më shumë njerëz ndajnë komentet e tyre.”
Nuk është vetëm Meta ajo që është kapur këtu: të martën, Google gjithashtu duhej të kundërshtonte pretendimet se funksioni i tij i plotësimit automatik të Kërkimit po censuronte rezultatet në lidhje me atentatin. “Ja ku po shkojmë sërish, një tjetër përpjekje për manipulimin e Zgjedhjeve!!!” tha Trump në një postim në Truth Social. “SHKO PAS META DHE GOOGLE.”
Që kur ChatGPT shpërtheu në skenë, industria e teknologjisë është përballur me mënyrën se si të kufizojë prirjen e AI gjeneruese për gënjeshtra. Disa lojtarë, si Meta, janë përpjekur të bazojnë chatbot-et e tyre me të dhëna cilësore dhe rezultate kërkimi në kohë reale si një mënyrë për të kompensuar halucinacionet. Por siç tregon ky shembull i veçantë, është ende e vështirë për të kapërcyer atë që modelet e mëdha gjuhësore janë krijuar në thelb për të bërë: të krijojnë gjëra.