Modaliteti për të rritur” i ChatGPT po vjen në vitin 2026
OpenAI njoftoi të enjten versionin më të fundit të modelit të saj kryesor të inteligjencës artificiale, GPT-5.2, në përgjigje të përpjekjes së saj të vazhdueshme për të mbajtur ritmin me konkurrentët e saj. Dhe ndërsa GPT-5.2 thuhet se performon mirë në shumicën e testeve referuese, ka një metrikë për të cilën OpenAI nuk dha detaje: sa e nxehtë është? Duket se do ta zbulojmë këtë diku në fillim të vitit të ardhshëm. Fidji Simo, CEO i Aplikacioneve në OpenAI, u tha gazetarëve se “modaliteti për të rritur” do të debutojë në ChatGPT gjatë tremujorit të parë të vitit 2026.

Versioni i ChatGPT me tru pornografik është diçka që CEO Sam Altman e premtoi në fillim të këtij viti, pasi disa nga përdoruesit e chatbot-it u tmerruan se mos lobotomizohej nga përditësimi i GPT-5. Në tetor, Altman pranoi se kompania kishte reduktuar personalitetin e chatbot-it në përgjigje të shqetësimeve në rritje në lidhje me shëndetin mendor të përdoruesit pas një padie për vdekje të padrejtë të ngritur kundër OpenAI nga prindërit e një 16-vjeçari i cili i kërkoi ChatGPT, ndër të tjera, këshilla se si të lidhë një lak para se të vetëvritej.

Kompania iu përgjigj këtyre shqetësimeve me kontrolle shtesë prindërore dhe përpjekje të reja për të përcaktuar moshën e përdoruesve më të rinj me një version “më të sigurt” të ChatGPT, i cili vlerëson moshën e përdoruesit dhe e filtron atë në përvojën e duhur. Kjo veçori e vlerësimit të moshës është ende çelësi që OpenAI të hapë derën drejt përvojave “për të rritur”. Sipas Shkence.info, Simo u tha gazetarëve se kompania është ende duke testuar teknologjinë e saj të verifikimit të moshës dhe dëshiron të sigurohet që mund të identifikojë me saktësi adoleshentët dhe të mos identifikojë gabimisht të rriturit përpara se të lançojë zyrtarisht përvojën e ndarë.
Në këtë pikë, “modaliteti për të rritur” i premtuar është i lidhur në mënyrë të pakthyeshme me premtimin specifik të Altman për të lejuar ChatGPT të prodhojë “erotikë”. Por Altman më vonë sqaroi se ideja është t’u japë përdoruesve të rritur më shumë “liri” në mënyrën se si ata bashkëveprojnë me chatbot-in, duke përfshirë lejimin e tij për të zhvilluar një “personalitet” më të personalizuar gjatë bisedave me përdoruesin.
Të rriturit mund të jenë më të pajisur sesa fëmijët për të kujtuar se po flasin me një chatbot dhe jo me një person të vërtetë, por është ende e dyshimtë të sugjerohet se dhënia e mundësisë përdoruesve për t’u lidhur me personalitetin e rremë të një roboti është në ndonjë mënyrë e mirë për sigurinë. Një studim i botuar më parë këtë vit në Journal of Social and Personal Relationships zbuloi se të rriturit që kanë zhvilluar lidhje emocionale me chatbot-et kanë dukshëm më shumë gjasa të përjetojnë nivele më të larta të shqetësimit psikologjik sesa ata që nuk i kanë. Studime të tjera kanë zbuluar se njerëzit me më pak marrëdhënie në jetën reale kanë më shumë gjasa të rrëfehen te chatbot-et, dhe madje OpenAI ka pranuar në të kaluarën se disa përdorues janë në rrezik të bëhen të varur emocionalisht nga ChatGPT. Paraqitja e kësaj thjesht si një zgjedhje që një i rritur mund të bëjë në një kohë kur dimë kaq pak për këtë teknologji duket pak si hedhja e fajit dikujt tjetër.
