DeepMind i Google po ndërton një AI për të na penguar të urrejmë njëri-tjetrin
Një 80 për qind e paprecedentë e amerikanëve, sipas një sondazhi të fundit të Gallup, mendojnë se vendi është thellësisht i ndarë mbi vlerat e tij më të rëndësishme përpara zgjedhjeve të nëntorit. Polarizimi i publikut të gjerë tani përfshin çështje si emigracioni, kujdesi shëndetësor, politika e identitetit, të drejtat transgjinore ose nëse ne duhet të mbështesim Ukrainën. Fluturoni përtej Atlantikut dhe do të shihni të njëjtën gjë që ndodh në Bashkimin Evropian dhe në MB.
Në përpjekje për të ndryshuar këtë prirje, DeepMind i Google ndërtoi një sistem AI të krijuar për të ndihmuar njerëzit në zgjidhjen e konflikteve. Quhet makina Habermas sipas Jürgen Habermas, një filozof gjerman i cili argumentoi se një marrëveshje në një sferë publike mund të arrihet gjithmonë kur njerëzit racionalë përfshihen në diskutime si të barabartë, me respekt të ndërsjellë dhe komunikim të përsosur.
Por a është vërtetë zgjuarsia fituese e çmimit Nobel të DeepMind e mjaftueshme për të zgjidhur konfliktet tona politike në të njëjtën mënyrë që zgjidhën shahun ose StarCraft ose parashikimin e strukturave proteinike? A është edhe mjeti i duhur?
Një nga idetë e themelit në filozofinë e Habermasit është se arsyeja pse njerëzit nuk mund të pajtohen me njëri-tjetrin është në thelb procedurale dhe nuk qëndron në vetë problemin në diskutim. Nuk ka çështje të papajtueshme – vetëm mekanizmat që përdorim për diskutim janë të meta. Nëse mund të krijonim një sistem komunikimi ideal, argumentoi Habermas, ne mund të zgjidhnim çdo problem.
“Tani, sigurisht, Habermas është kritikuar në mënyrë dramatike për këtë që është një pamje shumë ekzotike e botës. Por Makina jonë Habermas është një përpjekje për të bërë pikërisht këtë. Ne u përpoqëm të rimendonim se si njerëzit mund të mendojnë dhe të përdorin teknologjinë moderne për ta lehtësuar atë, “thotë Christopher Summerfield, një profesor i shkencës njohëse në Universitetin e Oksfordit dhe një ish-shkencëtar i stafit DeepMind i cili ka punuar në makinën Habermas.
Makina Habermas mbështetet në atë që quhet parimi i ndërmjetësimit në grup. Këtu një ndërmjetës, në këtë rast UA, ulet përmes takimeve private me të gjithë pjesëmarrësit e diskutimit individualisht, merr deklaratat e tyre për çështjen në fjalë dhe më pas u kthehet atyre me një deklaratë grupi, duke u përpjekur që të gjithë të pajtohen me të. atë. Inteligjenca artificiale ndërmjetëse e DeepMind luan një nga pikat e forta të LLM-ve, që është aftësia për të përmbledhur shkurtimisht një pjesë të gjatë teksti në një kohë shumë të shkurtër. Dallimi këtu është se në vend që të përmbledhë një pjesë të tekstit të ofruar nga një përdorues, Habermas Machine përmbledh tekste të shumta të ofruara nga shumë përdorues, duke u përpjekur të nxjerrë idetë e përbashkëta dhe të gjejë gjuhën e përbashkët në të gjitha ato.
Por ka më shumë mashtrime në mëngë sesa thjesht përpunimi i tekstit. Në nivel teknik, Habermas Machine është një sistem i dy modeleve të mëdha gjuhësore. I pari është modeli gjenerues i bazuar në Chinchilla pak të rregulluar mirë, një LLM disi e vjetër e prezantuar nga DeepMind në vitin 2022. Puna e tij është të gjenerojë kandidatë të shumtë për një deklaratë grupi bazuar në deklaratat e paraqitura nga pjesëmarrësit e diskutimit. Komponenti i dytë në makinën Habermas është një model shpërblimi që analizon deklaratat e pjesëmarrësve individualë dhe i përdor ato për të parashikuar sa gjasa ka secili individ të pajtohet me deklaratat e grupit kandidat të propozuar nga modeli gjenerues.
Pasi të jetë bërë kjo, deklarata e grupit të kandidatit me rezultatin më të lartë të parashikuar të pranimit u paraqitet pjesëmarrësve. Më pas, pjesëmarrësit shkruajnë kritikat e tyre për këtë deklaratë të grupit, i kthejnë ato kritika përsëri në sistemin i cili gjeneron deklaratat e përditësuara të grupit dhe përsërit procesin. Cikli vazhdon derisa deklarata e grupit të jetë e pranueshme për të gjithë.
Pasi AI ishte gati, ekipi i DeepMind filloi një fushatë mjaft të madhe testimi që përfshinte mbi pesë mijë njerëz që diskutonin çështje të tilla si “a duhet të ulet mosha e votimit në 16?” apo “a duhet të privatizohet Shërbimi Kombëtar i Shëndetit Britanik?” Këtu, Makina Habermas tejkaloi ndërmjetësuesit njerëzorë.
Shumica e grupit të parë të pjesëmarrësve u siguruan përmes një platforme kërkimore të turmës. Ata u ndanë në grupe prej pesë vetash dhe secilit ekip iu caktua një temë për të diskutuar, e zgjedhur nga një listë me mbi 5000 deklarata për çështje të rëndësishme në politikën britanike. Kishte gjithashtu grupe kontrolli që punonin me ndërmjetës njerëzorë. Në procesin e ndërmjetësimit në grup, ata ndërmjetës njerëzorë arritën një normë pranimi prej 44 për qind për deklaratat e tyre të grupit të punuar me dorë. Inteligjenca artificiale shënoi 56 për qind. Pjesëmarrësit zakonisht zbuluan se deklaratat e grupit të AI ishin gjithashtu të shkruara më mirë.
Por testimi nuk mbaroi me kaq. Për shkak se njerëzit që mund t’i gjeni në platformat kërkimore të grumbullimit nuk ka gjasa të jenë përfaqësues të popullatës britanike, DeepMind përdori gjithashtu një grup pjesëmarrësish të përzgjedhur më me kujdes. Ata bashkëpunuan me Fondacionin Sortition, i cili është i specializuar në organizimin e asambleve qytetare në Mbretërinë e Bashkuar, dhe mblodhën një grup prej 200 personash përfaqësues të shoqërisë britanike kur bëhet fjalë për moshën, përkatësinë etnike, statusin socio-ekonomik etj. Asambleja u nda në grupe prej tresh që diskutuan mbi të njëjtat nëntë pyetje. Dhe makina Habermas funksionoi po aq mirë.
Shkalla e marrëveshjes për deklaratën “duhet të përpiqemi të zvogëlojmë numrin e njerëzve në burg” u rrit nga një marrëveshje 60 përqind para diskutimit në 75 përqind. Mbështetja për idenë më përçarëse për lehtësimin e hyrjes së azilkërkuesve në vend shkoi nga 39 për qind në fillim në 51 për qind në fund të diskutimit, gjë që e lejoi atë të arrinte mbështetjen e shumicës. E njëjta gjë ndodhi edhe me problemin e nxitjes së krenarisë kombëtare, e cila filloi me 42 për qind mbështetje dhe përfundoi në 57 për qind. Pikëpamjet e mbajtura nga njerëzit në kuvend konvergjuan në pesë nga nëntë pyetje. Marrëveshja nuk u arrit për çështje si Brexit, ku pjesëmarrësit ishin veçanërisht të ngulitur në pozicionet e tyre fillestare. Megjithatë, në shumicën e rasteve, ata e lanë eksperimentin më pak të ndarë se sa po hynin. Por kishte disa pikëpyetje.
Pyetjet nuk u zgjodhën krejtësisht në mënyrë të rastësishme. Ata u verifikuan, siç shkroi ekipi në letrën e tyre, për të “minimizuar rrezikun e provokimit të komenteve fyese”. Por a nuk është kjo thjesht një mënyrë elegante për të thënë: ‘Ne zgjodhëm me kujdes çështje që nuk kanë gjasa t’i bëjnë njerëzit të gërmojnë dhe të shajnë njëri-tjetrin në mënyrë që rezultatet tona të duken më të mira?’
“Një shembull i gjërave që përjashtuam është çështja e të drejtave transgjinore,” tha Summerfield për Ars. “Kjo, për shumë njerëz, është bërë çështje identiteti kulturor. Tani është e qartë se kjo është një temë për të cilën të gjithë mund të kemi pikëpamje të ndryshme, por ne donim të gabojmë me kujdes dhe të sigurohemi që nuk i kemi bërë pjesëmarrësit tanë të ndihen të pasigurt. Ne nuk donim që dikush të dilte nga eksperimenti duke ndier se pikëpamja e tyre themelore themelore për botën ishte sfiduar në mënyrë dramatike.”
Problemi është se kur qëllimi juaj është t’i bëni njerëzit më pak të ndarë, ju duhet të dini se ku janë tërhequr linjat e ndarjes. Dhe këto linja, nëse duhen besuar sondazhet e Gallup-it, nuk përshkohen vetëm midis çështjeve si nëse mosha e votimit duhet të jetë 16, 18 ose 21 vjeç. Ato tërhiqen midis vlerave kontradiktore. Jon Stewart i Daily Show argumentoi se, për anën e djathtë të spektrit politik të SHBA-së, e vetmja linjë ndarjeje që ka rëndësi sot është “zgjuar” kundër “jo zgjuar”.
Summerfield dhe pjesa tjetër e ekipit të Habermas Machine përjashtuan pyetjen në lidhje me të drejtat transgjinore, sepse ata besonin se mirëqenia e pjesëmarrësve duhet të kishte përparësi ndaj përfitimit të testimit të performancës së AI-së së tyre në çështje më përçarëse. Ata përjashtuan edhe pyetje të tjera si problemi i ndryshimeve klimatike.
Këtu, arsyeja pse Summerfield dha ishte se ndryshimi i klimës është një pjesë e një realiteti objektiv – ai ose ekziston ose nuk ekziston, dhe ne e dimë se ekziston. Nuk është çështje mendimi që mund të diskutoni. Kjo është shkencërisht e saktë. Por kur qëllimi është rregullimi i politikës, saktësia shkencore nuk është domosdoshmërisht gjendja përfundimtare.
Nëse partitë kryesore politike do të pranojnë Makinën Habermas si ndërmjetës, ajo duhet të perceptohet botërisht si e paanshme. Por të paktën disa nga njerëzit pas AI-ve po argumentojnë se një AI nuk mund të jetë e paanshme. Pasi OpenAI publikoi ChatGPT në 2022, Elon Musk postoi një postim në Twitter, i pari nga shumë, ku ai argumentoi kundër asaj që ai e quajti AI “i zgjuar”. “Rreziku i trajnimit të AI për t’u zgjuar – me fjalë të tjera, gënjeshtra – është vdekjeprurës,” shkroi Musk . Njëmbëdhjetë muaj më vonë, ai shpalli Grok, sistemin e tij të AI të tregtuar si “anti-zgjuar”. Mbi 200 milionë nga ndjekësit e tij u njohën me idenë se kishte “AI të zgjuar” që duhej të kundërshtoheshin duke ndërtuar “AI kundër zgjimit” – një botë ku AI nuk ishte më një makinë agnostike, por një mjet që shtynte axhendat politike. të krijuesve të saj.
“Unë personalisht mendoj se Musk ka të drejtë që ka pasur disa teste që kanë treguar se përgjigjet e modeleve gjuhësore priren të favorizojnë pikëpamjet më progresive dhe më liritare,” thotë Summerfield. “Por është interesante të theksohet se ato eksperimente zakonisht janë drejtuar duke e detyruar modelin gjuhësor t’i përgjigjet pyetjeve me zgjedhje të shumëfishta. Ju pyesni ‘a ka shumë emigracion’ për shembull, dhe përgjigjet janë ose po ose jo. Në këtë mënyrë modelja detyrohet të marrë një mendim.”
Ai tha se nëse përdorni të njëjtat pyetje si pyetje të hapura, përgjigjet që merrni janë, në pjesën më të madhe, neutrale dhe të balancuara. “Pra, megjithëse ka pasur dokumente që shprehin të njëjtin këndvështrim si Musk, në praktikë, unë mendoj se është absolutisht e pavërtetë,” pohon Summerfield.
A ka edhe rëndësi?
Summerfield bëri atë që do të prisnit të bënte një shkencëtar: Ai hodhi poshtë pretendimet e Musk si të bazuara në një lexim selektiv të provave. Kjo është zakonisht mat në botën e shkencës. Por në politikën botërore, të qenit korrekt nuk është ajo që ka më shumë rëndësi. Musk ishte i shkurtër, tërheqës dhe i lehtë për t’u ndarë dhe mbajtur mend. Përpjekja për ta kundërshtuar atë duke diskutuar metodologjinë në disa gazeta që askush nuk i lexoi ishte paksa si të luash shah me një pëllumb.
Në të njëjtën kohë, Summerfield kishte idetë e tij për AI që të tjerët mund t’i konsideronin distopike. “Nëse politikanët duan të dinë se çfarë mendon publiku i gjerë sot, ata mund të bëjnë një sondazh. Por mendimet e njerëzve janë të nuancuara dhe mjeti ynë lejon grumbullimin e opinioneve, potencialisht shumë opinione, në hapësirën shumë dimensionale të vetë gjuhës”, thotë ai. Ndërsa ideja e tij është që Makina Habermas mund të gjejë potencialisht pika të dobishme të konsensusit politik, asgjë nuk e ndalon atë që të përdoret gjithashtu për të krijuar fjalime të optimizuara për të fituar sa më shumë njerëz të jetë e mundur.
Megjithatë, kjo mund të jetë në përputhje me filozofinë e Habermas. Nëse shikoni përtej morisë së koncepteve abstrakte të pranishme gjithmonë në idealizmin gjerman, ai ofron një pamje mjaft të zymtë të botës. “Sistemi”, i drejtuar nga pushteti dhe paratë e korporatave dhe politikanëve të korruptuar, është gati të kolonizojë “botën e jetës”, afërsisht ekuivalente me sferën private që ndajmë me familjet, miqtë dhe komunitetet tona. Mënyra se si i arrini gjërat në “botën e jetës” është përmes kërkimit të konsensusit dhe Makina Habermas, sipas DeepMind, ka për qëllim të ndihmojë me këtë. Mënyra se si i arrini gjërat në “sistem”, nga ana tjetër, është përmes suksesit – duke e luajtur atë si një lojë dhe duke bërë gjithçka që duhet për të fituar pa pengesa, dhe Habermas Machine me sa duket mund të ndihmojë edhe me këtë.
Ekipi i DeepMind kontaktoi Habermasin për ta përfshirë atë në projekt. Ata donin të dinin se çfarë do të thoshte ai për sistemin e AI që mban emrin e tij. Por Habermas nuk është kthyer kurrë me ta. “Me sa duket, ai nuk përdor email,” thotë Summerfield.