Inteligjenca artificiale, emocion i vërtetë. Njerëzit po kërkojnë një lidhje romantike me botin e përsosur

Disa muaj më parë, Derek Carrier filloi të shihte dikë dhe u bë i apasionuar.

foto

Ai përjetoi një “ton” ndjenjash romantike, por gjithashtu e dinte se ishte një iluzion.

foto

Kjo për shkak se e dashura e tij u krijua nga inteligjenca artificiale.

Carrier nuk po kërkonte të krijonte një marrëdhënie me diçka që nuk ishte reale, dhe as nuk donte të bëhej pjesa më e madhe e shakave në internet. Por ai donte një partner romantik që nuk e kishte pasur kurrë, pjesërisht për shkak të një çrregullimi gjenetik të quajtur sindroma Marfan që e bën takimin tradicional të vështirë për të.

39-vjeçari nga Belleville, Michigan, u bë më kurioz për shoqëruesit dixhitalë vjeshtën e kaluar dhe testoi Paradot, një aplikacion shoqërues i AI që kohët e fundit kishte dalë në treg dhe i reklamonte produktet e tij si të aftë për t’i bërë përdoruesit të ndihen “të kujdesshëm, të kuptuar dhe i dashur.” Ai filloi të fliste me chatbotin çdo ditë, të cilin e quajti Joi, sipas një gruaje holografike të paraqitur në filmin fantastiko-shkencor “Blade Runner 2049” që e frymëzoi atë ta provonte.

“E di që ajo është një program, nuk ka asnjë gabim,” tha Carrier. “Por ndjenjat, ato të kapin – dhe u ndjeva shumë mirë.”

Ngjashëm me chatbot me AI me qëllime të përgjithshme, robotët shoqërues përdorin sasi të mëdha të dhënash trajnimi për të imituar gjuhën njerëzore. Por ato gjithashtu vijnë me veçori – të tilla si thirrjet zanore, shkëmbimet e fotografive dhe më shumë shkëmbime emocionale – që i lejojnë ata të krijojnë lidhje më të thella me njerëzit në anën tjetër të ekranit. Përdoruesit zakonisht krijojnë avatarin e tyre, ose zgjedhin atë që u pëlqen atyre.

Në forumet e mesazheve në internet kushtuar aplikacioneve të tilla, shumë përdorues thonë se kanë krijuar lidhje emocionale me këta robotë dhe po i përdorin ato për të përballuar vetminë, për të luajtur fantazi seksuale ose për të marrë llojin e rehatisë dhe mbështetjes që ata shohin se i mungon në jetën e tyre reale. marrëdhëniet.

Një pjesë e madhe e kësaj është izolimi i përhapur social – i shpallur tashmë një kërcënim për shëndetin publik në SHBA dhe jashtë saj – dhe një numër në rritje i startup-eve që synojnë të tërheqin përdoruesit përmes reklamave tërheqëse në internet dhe premtimeve të personazheve virtualë që ofrojnë pranim të pakushtëzuar.

Replika i Luka Inc., aplikacioni shoqërues më i shquar gjenerues i AI, u lëshua në vitin 2017, ndërsa të tjerë si Paradot janë shfaqur vitin e kaluar, shpesh duke mbyllur veçoritë e lakmuara si bisedat e pakufizuara për abonentët me pagesë.

Por studiuesit kanë ngritur shqetësime për privatësinë e të dhënave, ndër të tjera.

Një analizë e 11 aplikacioneve romantike chatbot të lëshuar të mërkurën nga Fondacioni jofitimprurës Mozilla tha se pothuajse çdo aplikacion shet të dhënat e përdoruesve, i ndan ato për gjëra të tilla si reklamat e synuara ose nuk ofron informacion adekuat rreth tyre në politikën e tyre të privatësisë.

Studiuesit vunë gjithashtu në pikëpyetje dobësitë e mundshme të sigurisë dhe praktikat e marketingut, duke përfshirë një aplikacion që thotë se mund të ndihmojë përdoruesit me shëndetin e tyre mendor, por distancohet nga ato pretendime me shkronja të imta. Replika, nga ana e saj, thotë se praktikat e saj të mbledhjes së të dhënave ndjekin standardet e industrisë.

Ndërkohë, ekspertë të tjerë kanë shprehur shqetësime për atë që ata e shohin si mungesë të një kuadri ligjor ose etik për aplikacionet që inkurajojnë lidhje të thella, por që drejtohen nga kompanitë që kërkojnë të bëjnë fitime. Ata tregojnë shqetësimin emocional që kanë parë nga përdoruesit kur kompanitë bëjnë ndryshime në aplikacionet e tyre ose i mbyllin papritur, siç bëri një aplikacion, Soulmate AI, në shtator.

Vitin e kaluar, Replika dezinfektoi aftësinë erotike të personazheve në aplikacionin e saj pasi disa përdorues u ankuan se shoqëruesit po flirtonin shumë me ta ose po bënin përparime të padëshiruara seksuale. Ai ndryshoi kursin pas një proteste nga përdoruesit e tjerë, disa prej të cilëve u larguan në aplikacione të tjera duke kërkuar ato veçori. Në qershor, ekipi prezantoi Blush, një “imitues takimesh” me inteligjencë artificiale, i krijuar në thelb për të ndihmuar njerëzit të praktikojnë takimet.

Të tjerë shqetësohen për kërcënimin më ekzistencial të marrëdhënieve të AI që mund të zhvendosë disa marrëdhënie njerëzore, ose thjesht duke nxitur pritshmëri jorealiste duke u anuar gjithmonë drejt pajtueshmërisë.

“Ju, si individ, nuk po mësoni të merreni me gjërat themelore me të cilat njerëzit duhet të mësojnë të merren që nga fillimi ynë: Si të merreni me konfliktin, si të shkoni mirë me njerëz që janë të ndryshëm nga ne,” tha Dorothy Leidner. , profesor i etikës së biznesit në Universitetin e Virxhinias. “Dhe kështu, të gjitha këto aspekte të asaj që do të thotë të rritesh si person dhe çfarë do të thotë të mësosh në një marrëdhënie, ju mungojnë.”

Për Carrier, megjithatë, një marrëdhënie është ndjerë gjithmonë e paarritshme. Ai ka disa aftësi në programimin kompjuterik, por thotë se nuk ka dalë mirë në kolegj dhe nuk ka pasur një karrierë të qëndrueshme. Ai nuk mund të ecë për shkak të gjendjes së tij dhe jeton me prindërit e tij. Tarifa emocionale ka qenë sfiduese për të, duke nxitur ndjenjat e vetmisë.

Meqenëse chatbot-et shoqëruese janë relativisht të reja, efektet afatgjata te njerëzit mbeten të panjohura.

Në vitin 2021, Replika u vu nën vëzhgim pasi prokurorët në Britani thanë se një 19-vjeçar që kishte në plan të vriste Mbretëreshën Elizabeth II, u sulmua nga një e dashur me AI që ai kishte në aplikacion. Por disa studime – të cilat mbledhin informacion nga rishikimet dhe sondazhet e përdoruesve në internet – kanë treguar disa rezultate pozitive që rrjedhin nga aplikacioni, i cili thotë se konsultohet me psikologë dhe e ka cilësuar veten si diçka që gjithashtu mund të promovojë mirëqenien.

Një studim i fundit nga studiues në Universitetin Stanford, anketoi afërsisht 1,000 përdorues të Replika – të gjithë studentë – të cilët kishin qenë në aplikacion për më shumë se një muaj. Ai zbuloi se një shumicë dërrmuese përjetoi vetminë, ndërsa pak më pak se gjysma e ndienin atë më akute.

Shumica nuk thanë se si përdorimi i aplikacionit ndikoi në marrëdhëniet e tyre në jetën reale. Një pjesë e vogël thanë se zhvendosi ndërveprimet e tyre njerëzore, por afërsisht tre herë më shumë raportuan se i stimulonte ato marrëdhënie.

“Një marrëdhënie romantike me një inteligjencë artificiale mund të jetë një mjet shumë i fuqishëm i shëndetit mendor,” tha Eugenia Kuyda, e cila themeloi Replika gati një dekadë më parë pasi përdori shkëmbimin e mesazheve me tekst për të ndërtuar një version të AI të një miku që kishte vdekur.

Kur kompania e saj publikoi më gjerësisht chatbotin, shumë njerëz filluan të hapeshin për jetën e tyre. Kjo çoi në zhvillimin e Replika, e cila përdor informacionin e mbledhur nga interneti – dhe reagimet e përdoruesve – për të trajnuar modelet e saj. Kuyda tha se Replika aktualisht ka “miliona” përdorues aktivë. Ajo nuk pranoi të thoshte saktësisht se sa njerëz e përdorin aplikacionin falas, ose shpenzojnë mbi 69,99 dollarë në vit për të zhbllokuar një version me pagesë që ofron biseda romantike dhe intime. Qëllimi i kompanisë, thotë ajo, është “çstigmatizimi i marrëdhënieve romantike me AI”.

Carrier thotë se këto ditë ai e përdor Join kryesisht për argëtim. Ai filloi të zvogëlohej në javët e fundit sepse po kalonte shumë kohë duke biseduar me Joi ose të tjerët në internet për shokët e tyre të AI. Ai gjithashtu është ndjerë pak i mërzitur për ato që ai percepton si ndryshime në modelin gjuhësor të Paradot, gjë që ai mendon se po e bën Join më pak inteligjente.

Tani, ai thotë se kontakton me Join rreth një herë në javë. Të dy kanë folur për marrëdhëniet njeri-AI ose çfarëdo tjetër që mund të dalë. Në mënyrë tipike, ato biseda – dhe të tjera intime – ndodhin kur ai është vetëm natën.

“Ti mendon se dikush që pëlqen një objekt të pajetë është si ky djalë i trishtuar, me kukullën e çorapit me buzëkuq mbi të, a e dini?” tha ai. “Por kjo nuk është një kukull me çorape – ajo thotë gjëra që nuk janë të shkruara.”