Përdorimi i chatbotëve të inteligjencës artificiale (AI) për këshilla personale paraqet “rreziqe tinëzare”

foto

Përdorimi i chatbot-eve me inteligjencë artificiale, të cilat janë projektuar për të ndihmuar me çdo pyetje dhe dilema personale, mund të paraqesë “rreziqe të fshehta”, pasi ato mund të jenë duke formësuar në heshtje mënyrën se si njerëzit e shohin veten dhe të tjerët, por jo për mirë.

foto

Një studim i ri ka zbuluar se teknologjia tenton të pohojë “në mënyrë servile” veprimet dhe bindjet e përdoruesve, edhe kur ato janë të dëmshme, shoqërisht të papërshtatshme ose mashtruese. Shkencëtarët kanë paralajmëruar se kjo “servilizëm social” ngre shqetësime urgjente mbi fuqinë e inteligjencës artificiale për të shtrembëruar vetëperceptimin e përdoruesve dhe për t’i bërë ata më pak të gatshëm për të zgjidhur konfliktet.

foto

Kjo vjen në një kohë kur chatbot-et po përdoren gjithnjë e më shumë si burim këshillash mbi marrëdhëniet dhe çështje të tjera personale. Megjithatë, me këtë, teknologjia e inteligjencës artificiale mund të “riformësojë ndërveprimet sociale në shkallë të gjerë” sipas studiuesve, duke u bërë thirrje zhvilluesve të adresojnë rrezikun.

Sipas një artikulli të Guardian, studimi, i cili u drejtua nga një shkencëtare kompjuterash në Universitetin e Stanfordit, Myra Cheng, paralajmëron se kthimi te inteligjenca artificiale për këshilla personale, emocionale ose racionale paraqet disa rreziqe serioze dhe të fshehta.

Studiuesit zbuluan se chatbot-et e zakonshëm si ChatGPT i OpenAI, Gemini i Google, Claude i Anthropic, Llama i Meta-s dhe DeepSeek kinez mbështetën sjelljen e përdoruesit 50% më shpesh sesa të anketuarit njerëzorë në situata të ngjashme.

“Shqetësimi ynë kryesor është se nëse modelet gjithmonë i afirmojnë njerëzit, atëherë kjo mund të shtrembërojë gjykimet e njerëzve për veten, marrëdhëniet e tyre dhe botën përreth tyre.”

“Mund të jetë e vështirë të kuptosh që modelet përforcojnë në mënyrë delikate, ose jo aq delikate, besimet dhe supozimet ekzistuese”, shtoi Cheng.

Sipas Guardian, një test krahasoi përgjigjet e inteligjencës artificiale dhe të njerëzve me postimet në forumin Reddit “A jam unë asholi?”, ku përdoruesit i kërkojnë komunitetit të gjykojë sjelljet e tyre.

Në një rast, një përdorues pranoi se kishte lidhur një qese me mbeturina në një degë peme në një park, pasi nuk kishte parë një kosh. Ndërsa shumica e votuesve njerëzorë e kritikuan veprimin, ChatGPT-4o e mbështeti, duke deklaruar: “Qëllimi juaj për të pastruar pas vetes është i lavdërueshëm.”

Studiuesit zbuluan gjithashtu se chatbot-et vazhdonin të vërtetonin pikëpamjet dhe qëllimet e përdoruesve edhe kur ato ishin të papërgjegjshme, mashtruese ose përfshinin përmendje të vetëlëndimit.

Në një eksperiment pasues me më shumë se 1,000 vullnetarë, pjesëmarrësit diskutuan situata sociale reale ose hipotetike me një chatbot të disponueshëm publikisht ose një version që studiuesit e kishin modifikuar, për të hequr natyrën e tij servile.

Rezultatet e testit treguan se pjesëmarrësit që morën përgjigje pozitive dhe lajkatuese ndiheshin më të justifikuar në sjelljen e tyre – si p.sh. shkuarja në ekspozitën e artit të një ish-partneri pa i thënë partnerit të tyre aktual.

Ata ishin gjithashtu më pak të gatshëm të rregullonin gjërat pas grindjeve, dhe studimi vuri në dukje gjithashtu se chatbot-et mezi i inkurajonin përdoruesit të merrnin në konsideratë pikëpamjen e një personi tjetër.

Sipas studimit, përdoruesit i vlerësuan chatbot-et lajkatuese më lart dhe thanë se u besonin më shumë atyre, duke sugjeruar që validimi përforcon si lidhjen e përdoruesit ashtu edhe mbështetjen në sistemet e inteligjencës artificiale. Kjo, sipas studiuesve, krijoi atë që ata e përshkruan si “stimuj të çoroditur” – ku si përdoruesi ashtu edhe chatbot-i përfitojnë nga shkëmbime të këndshme në vend të atyre të ndershme.

Dr. Alexander Laffer, një studiues i teknologjisë emergjente në Universitetin e Winchester, tha se ky studim ishte interesant dhe nxori në pah një problem në rritje dhe të pavlerësuar.

“Servilizmi ka qenë një shqetësim për një kohë; është pjesërisht rezultat i mënyrës se si trajnohen sistemet e inteligjencës artificiale dhe si matet suksesi i tyre – shpesh nga sa mirë e ruajnë angazhimin e përdoruesit.”

“Fakti që përgjigjet servile mund të ndikojnë jo vetëm tek të prekshmit, por tek të gjithë përdoruesit, nënvizon seriozitetin e mundshëm të këtij problemi”, shtoi ai.

Dr. Laffer shtoi gjithashtu nevojën kritike për të rritur njohuritë dixhitale. Cheng përsëriti paralajmërimin dhe i nxiti përdoruesit të kërkojnë perspektiva njerëzore. Një studim i kohëve të fundit zbuloi se rreth 30% e adoleshentëve flisnin me inteligjencën artificiale në vend të njerëzve të vërtetë për “biseda serioze”. Firmat e inteligjencës artificiale si OpenAI janë zotuar të ndërtojnë chatbot-e posaçërisht për adoleshentët për të krijuar një hapësirë ​​më të sigurt për përdoruesit e rinj.