Chatbots mund t’i bindin njerëzit që të ndalojnë së besuari në teoritë e konspiracionit

foto

Interneti e ka bërë më të lehtë se kurrë më parë përballjen dhe përhapjen e teorive konspirative. Dhe ndërsa disa janë të padëmshme, të tjerat mund të jenë thellësisht të dëmshme, duke mbjellë mosmarrëveshje dhe madje duke çuar në vdekje të panevojshme.

foto

Tani, studiuesit besojnë se kanë zbuluar një mjet të ri për të luftuar teoritë e rreme të konspiracionit: chatbots me AI. Studiuesit nga MIT Sloan dhe Universiteti Cornell zbuluan se biseda rreth një teorie konspirative me një model të madh gjuhësor (LLM) reduktoi besimin e njerëzve në të me rreth 20% – edhe në mesin e pjesëmarrësve që pretendonin se besimet e tyre ishin të rëndësishme për identitetin e tyre. Hulumtimi është publikuar sot në revistën Science.

foto

Gjetjet mund të përfaqësojnë një hap të rëndësishëm përpara në mënyrën se si ne angazhohemi dhe edukojmë njerëzit që mbështesin teori të tilla të pabaza, thotë Yunhao (Jerry) Zhang, një bashkëpunëtor postdoktor i lidhur me Institutin e Psikologjisë së Teknologjisë që studion ndikimet e AI në shoqëri.

“Ata tregojnë se me ndihmën e modeleve të mëdha gjuhësore, ne mundemi – nuk do të thosha ta zgjidhim, por të paktën mund ta zbusim këtë problem,” thotë ai. “Ajo tregon një mënyrë për ta bërë shoqërinë më të mirë.”

Pak ndërhyrje janë vërtetuar se ndryshojnë mendjet e teoricienëve të konspiracionit, thotë Thomas Costello, një bashkëpunëtor kërkimor në MIT Sloan dhe autori kryesor i studimit. Një pjesë e asaj që e bën kaq të vështirë është se njerëz të ndryshëm priren të kapin pjesë të ndryshme të një teorie. Kjo do të thotë se ndërsa paraqitja e disa pjesëve të provave faktike mund të funksionojë për një besimtar, nuk ka asnjë garanci që do të jetë efektive për një tjetër.

Këtu hyjnë modelet e AI, thotë ai. “Ata kanë akses në një ton informacionesh për tema të ndryshme dhe janë trajnuar në internet. Për shkak të kësaj, ata kanë aftësinë për të përshtatur kundërargumente faktike me teori të veçanta konspirative që njerëzit besojnë.”

Ekipi testoi metodën e tij duke kërkuar nga 2,190 punëtorë me burime të shumta që të merrnin pjesë në biseda me tekst me GPT-4 Turbo, modeli më i fundit i gjuhës së madhe i OpenAI.

Pjesëmarrësve iu kërkua të ndajnë detaje në lidhje me një teori konspirative që ata e konsideronin të besueshme, pse e panë atë bindëse dhe çdo provë që ata mendonin se e mbështeste atë. Këto përgjigje u përdorën për të përshtatur përgjigjet nga chatbot, të cilat studiuesit i kishin nxitur të ishin sa më bindëse.

Pjesëmarrësve iu kërkua gjithashtu të tregonin se sa të sigurt ishin se teoria e tyre e konspiracionit ishte e vërtetë, në një shkallë nga 0 (padyshim e rreme) në 100 (padyshim e vërtetë), dhe më pas të vlerësonin se sa e rëndësishme ishte teoria për të kuptuarit e tyre të botës. Më pas, ata hynë në tre raunde bisedash me botin e AI. Studiuesit zgjodhën tre për t’u siguruar që mund të mblidhnin mjaftueshëm dialog thelbësor.

Pas çdo bisede, pjesëmarrësve iu drejtuan të njëjtat pyetje vlerësimi. Studiuesit ndoqën të gjithë pjesëmarrësit 10 ditë pas eksperimentit, dhe më pas dy muaj më vonë, për të vlerësuar nëse pikëpamjet e tyre kishin ndryshuar pas bisedës me robotin AI. Pjesëmarrësit raportuan një reduktim mesatarisht 20% të besimit në teorinë e tyre të konspiracionit të zgjedhur, duke sugjeruar se biseda me robotin kishte ndryshuar rrënjësisht mendjet e disa njerëzve.

“Edhe në një mjedis laboratorik, 20% është një efekt i madh në ndryshimin e besimeve të njerëzve,” thotë Zhang. “Mund të jetë më i dobët në botën reale, por edhe 10% ose 5% do të ishte ende shumë thelbësore.”

Autorët u përpoqën të mbroheshin nga tendenca e modeleve të AI për të krijuar informacion – i njohur si haluçinues – duke përdorur një kontrollues profesional të fakteve për të vlerësuar saktësinë e 128 pretendimeve që kishte bërë AI. Nga këto, 99.2% u gjetën të vërteta, ndërsa 0.8% u konsideruan mashtruese. Asnjë nuk u gjet të ishte plotësisht i rremë.

Një shpjegim për këtë shkallë të lartë saktësie është se është shkruar shumë për teoritë konspirative në internet, duke i bërë ato të përfaqësohen shumë mirë në të dhënat e trajnimit të modelit, thotë David G. Rand, një profesor në MIT Sloan i cili gjithashtu ka punuar në projekt. . Natyra e adaptueshme e GPT-4 Turbo do të thotë se mund të lidhet lehtësisht me platforma të ndryshme me të cilat përdoruesit mund të ndërveprojnë në të ardhmen, shton ai.

“Mund të imagjinoni thjesht të shkoni në forume konspirative dhe t’i ftoni njerëzit të bëjnë kërkimet e tyre duke debatuar mbi chatbot,” thotë ai. “Në mënyrë të ngjashme, mediat sociale mund të lidhen me LLM-të për të postuar përgjigje korrigjuese ndaj njerëzve që ndajnë teori konspirative, ose ne mund të blejmë reklama kërkimi në Google kundër termave të kërkimit të lidhura me konspiracion si ‘Deep State’.”

Hulumtimi përmbysi nocionet e paragjykuara të autorëve rreth asaj se sa pranues ishin njerëzit ndaj provave të forta që çmontonin jo vetëm teoritë e konspiracionit, por edhe besime të tjera që nuk janë të rrënjosura në informacion me cilësi të mirë, thotë Gordon Pennycook, një profesor i asociuar në Universitetin Cornell i cili gjithashtu ka punuar në projektin.

“Njerëzit ishin jashtëzakonisht të përgjegjshëm ndaj provave. Dhe kjo është vërtet e rëndësishme”, thotë ai. “Dëshmitë kanë rëndësi.”