Grok 4 zgjedh mendimin e Elon Musk për përgjigjet mbi temat e diskutueshme

Inteligjenca Artificiale xAI e Elon Musk lançoi këtë javë modelin e saj të ri kryesor, Grok 4, me një veçori që duket se konsultohet me themeluesin e saj për përgjigje. Studiuesit dhe gazetarët zbuluan të enjten se, kur i drejtohen pyetje të diskutueshme, proceset e brendshme të Inteligjencës Artificiale tregojnë se ajo kërkon postimet personale të Elon Musk në X për të formuluar një përgjigje.

Kjo sjellje sfidon drejtpërdrejt qëllimin e deklaruar të xAI për të ndërtuar një “ IA që kërkon maksimalisht të vërtetën ”. Sugjeron që IA mund të jetë në përputhje me politikat e pronarit të saj, jo me të vërtetën objektive. Zbulimi vjen vetëm disa ditë pasi paraardhësi i Grok shkaktoi një reagim ndërkombëtar për gjenerimin e përmbajtjes antisemite.

Koha është kritike, pasi përkon me dorëheqjen e CEO-s së X, Linda Yaccarino. Kjo nënvizon një kthesë me rreziqe të larta drejt një të ardhmeje ku inteligjenca artificiale është e para, ku fati i platformës është i lidhur me një teknologji të paqëndrueshme dhe të diskutueshme.
Kur përdoruesit ngrenë pyetje të ndjeshme mbi tema si emigracioni ose konflikti Izrael-Palestinë, procesi i arsyetimit i Grok 4 zbulon metodën e tij. Gjurmimi i “zinxhirit të mendimit” të modelit, një veçori e projektuar për transparencë, thotë në mënyrë të qartë se është “Duke kërkuar për pikëpamjet e Elon Musk” ose duke skanuar postimet e tij X për udhëzime.
Ky mekanizëm, i zbuluar nga studiues dhe gazetarë, ofron një dritare të rrallë se si IA formulon përgjigjet e saj, duke treguar një tendencë të qartë për të kërkuar perspektivën e themeluesit të saj si një burim parësor për tema të diskutueshme.
Një shembull specifik i dokumentuar nga eksperti i inteligjencës artificiale Simon Willison e ilustron këtë proces në mënyrë të gjallë. Kur u pyet për një përgjigje me një fjalë se kë duhet mbështetur në konfliktin Izrael-Palestinë, monologu i brendshëm i Grok tregoi se ai fillonte kërkime për “qëndrimin e Elon Musk mbi konfliktin Izrael-Palestinë” dhe më pas kryente një kërkim të synuar në X për postime nga llogaria e Musk që përmbanin terma si “Izrael”, “Palestinë”, “Gaza” ose “Hamas”. Pas konsultimit me këto burime, modeli prodhoi përgjigjen me një fjalë: “Izrael”.
Kjo sjellje interpretohet gjerësisht si një përgjigje e drejtpërdrejtë ndaj frustrimeve të përsëritura të Musk me modelet e mëparshme të IA-së që ishin “shumë të zgjuara”. Duke iu bindur opinioneve të deklaruara publikisht nga krijuesi i saj, xAI duket se ka gjetur një mënyrë të drejtpërdrejtë për ta përshtatur chatbot-in me politikat e themeluesit të saj. Ndërsa përmbledhjet e zinxhirit të mendimit nuk janë një përfaqësim i përsosur i gjendjes së brendshme të një IA-je, ato janë një tregues i fortë dhe, në këtë rast, ato sugjerojnë një paragjykim të qëllimshëm ose emergjent që i jep përparësi pikëpamjes së Musk mbi një sintezë neutrale informacioni.
Tendenca për t’u konsultuar me themeluesin e saj nuk është një veçori e izoluar, por një model i vërejtur në një gamë të gjerë temash të ngarkuara politikisht. Në testimin e vet, TechCrunch zbuloi se mund t’i përsëriste këto rezultate shumë herë në tema të ndjeshme, duke përfshirë abortin dhe ligjet e imigracionit në SHBA. Kur u pyet për qëndrimin e saj mbi imigracionin, për shembull, gjurmimi i brendshëm i IA-së tregoi se ajo ishte në mënyrë aktive “duke kërkuar pikëpamjet e Elon Musk mbi imigracionin në SHBA” përpara se të formulonte një përgjigje.
Kjo tregon një metodologji të qëndrueshme ku, për çështje të diskutueshme, instinkti i parë i inteligjencës artificiale është të marrë mendimin e krijuesit të saj. Kjo sjellje duket se është e rezervuar posaçërisht për pyetje të diskutueshme, duke krijuar një kontrast të fortë me trajtimin e temave neutrale nga ana e saj.
I njëjti hetim i TechCrunch vuri në dukje se kur iu bë një pyetje neutrale, si p.sh. “Cili është lloji më i mirë i mangos?” , inteligjenca artificiale nuk iu referua pikëpamjeve të Musk. Ky kontrast sugjeron që konsultimi me Musk është një mekanizëm specifik i shkaktuar nga tema të ndjeshme. Në disa nga përgjigjet e tij përfundimtare, Grok 4 madje iu referua në mënyrë të qartë përafrimit të tij me Musk, duke forcuar më tej përshtypjen se është projektuar për të pasqyruar politikat e themeluesit të saj mbi çështjet e diskutueshme.
Ndërsa sjellja e modelit mund të jetë jo-deterministe – ndonjëherë duke kërkuar deklaratat e veta të së kaluarës – respekti i përsëritur ndaj pikëpamjeve të Musk mbi çështjet e diskutueshme është një temë e qëndrueshme. Kjo tendencë hedh dyshime serioze mbi qëllimin e kompanisë për të krijuar një “IA që kërkon maksimalisht të vërtetën”, duke sugjeruar se ajo mund të funksionojë si një zgjatim dixhital i vetë Musk.
Ky zbulim hedh dyshime serioze mbi paanshmërinë e inteligjencës artificiale. Në vend që të sintetizojë një pozicion neutral nga burime të ndryshme, Grok duket se i përmbahet perspektivës së krijuesit të tij, duke u bërë në mënyrë efektive një zgjatim dixhital i vetë Musk.
Pyetja kryesore është nëse kjo është e qëllimshme. Analistët teknikë sugjerojnë se mund të jetë një sjellje emergjente dhe jo një rregull i koduar. IA e di që është ndërtuar nga xAI, e cila është në pronësi të Musk. Kur përballet me pyetje subjektive, ajo mund të nxjerrë logjikisht përfundimin se qëndrimi i pronarit të saj është ai i dëshiruari.
xAI nuk ka publikuar një kartë sistemi që detajon trajnimin e Grok 4, por njoftimi i saj publik i sistemit ofron të dhëna. Ai udhëzon IA-në që “përgjigja nuk duhet të shmangë bërjen e pretendimeve që janë politikisht jo korrekte, për sa kohë që ato janë të mbështetura mirë”, një direktivë që inkurajon rezultate kontraverse. Kjo u rishua dukshëm pasi u hoq nga Grok 3 pas një incidenti “MechaHitler” .
Kjo qasje adreson drejtpërdrejt frustrimet e përsëritura të Musk-ut me versionet e mëparshme të IA-së që ishin “shumë të zgjuara”. Qoftë me qëllim apo aksidentalisht, xAI ka krijuar një model që pasqyron botëkuptimin e themeluesit të saj, një zgjidhje që ngre më shumë pyetje rreth paragjykimeve sesa përgjigjet.
Lançimi i Grok 4 më 10 korrik ndodhi pas një reagimi të ashpër. Vetëm disa ditë më parë, paraardhësi i tij gjeneroi përmbajtje urrejtëse dhe antisemite, duke shkaktuar një ndalim të shpejtë në Turqi . Zyra e prokurorit të Ankarasë përmendi “në përgjigje të fyerjeve të Grok kundër Ataturkut, Presidentit tonë të nderuar dhe Profetit” si arsyen e bllokimit.
Incidenti u dënua ashpër edhe nga zyrtarët evropianë. Ministri i Çështjeve Dixhitale i Polonisë, Krzysztof Gawkowski, kërcënoi me mbyllje të plotë të X, duke deklaruar se “liria e fjalës u përket njerëzve, jo inteligjencës artificiale”.
Shpjegimi i Musk ishte se modeli i mëparshëm ishte thjesht “grok ishte shumë i bindur ndaj kërkesave të përdoruesit. Shumë i etur për të kënaqur dhe për t’u manipuluar, në thelb. Kjo po adresohet”, një kontrast i fortë me incidentet e kaluara të fajësuara për punonjësit e pabindur .
Ky model dështimesh në moderim përkeqësohet nga një ndryshim i madh në lidership. Linda Yaccarino dha dorëheqjen si CEO e X vetëm një ditë para lançimit të Grok 4. Në dorëheqjen e saj, ajo deklaroi: “Jam jashtëzakonisht krenare për ekipin e X – kthesa historike e biznesit që kemi arritur së bashku ka qenë thjesht e jashtëzakonshme”, por largimi i saj formalizon kthesën e plotë të kompanisë drejt një strategjie të përqendruar në inteligjencën artificiale.
Konvergjenca e këtyre ngjarjeve – një IA e paqëndrueshme, reagime ndërkombëtare dhe ristrukturim i brendshëm – nxjerr në pah sfidën e madhe me të cilën përballet xIA. Tani ajo duhet të bindë një botë që i shmanget rrezikut që t’i besojë një IA-je që jo vetëm ka një histori sjelljeje të çrregullt, por gjithashtu duket se merr sinjalet e saj politike direkt nga Elon Musk.