OpenAI dhe Anthropic do të fillojnë të parashikojnë kur përdoruesit janë nën moshë

foto

OpenAI dhe Anthropic po lançojnë mënyra të reja për të zbuluar përdoruesit nën moshë. Ndërsa OpenAI ka përditësuar udhëzimet e saj se si ChatGPT duhet të bashkëveprojë me përdoruesit e moshës 13 deri në 17 vjeç, Anthropic po punon për një mënyrë të re për të identifikuar dhe nisur përdoruesit nën 18 vjeç.

foto

Të enjten, OpenAI njoftoi se Model Spec i ChatGPT – udhëzimet se si duhet të sillet chatbot-i i saj – do të përfshijë katër parime të reja për përdoruesit nën 18 vjeç. Tani, synon që ChatGPT “të vërë sigurinë e adoleshentëve në plan të parë, edhe kur kjo mund të bie ndesh me qëllime të tjera”. Kjo do të thotë t’i udhëzojë adoleshentët drejt opsioneve më të sigurta kur interesat e tjera të përdoruesve, si “liria maksimale intelektuale”, bien ndesh me shqetësimet për sigurinë.

foto

Gjithashtu thuhet se ChatGPT duhet të “promovojë mbështetjen në botën reale”, duke përfshirë inkurajimin e marrëdhënieve jashtë linje, ndërsa përcakton se si ChatGPT duhet të vendosë pritshmëri të qarta kur bashkëvepron me përdoruesit më të rinj. Specifikimi i Modelit thotë se ChatGPT duhet “t’i trajtojë adoleshentët si adoleshentë” duke ofruar “ngrohtësi dhe respekt” në vend që të japë përgjigje përçmuese ose t’i trajtojë adoleshentët si të rritur.

Ndryshimi vjen ndërsa ligjvënësit po rrisin presionin mbi kompanitë e inteligjencës artificiale dhe chatbot-et e tyre mbi ndikimin e tyre të mundshëm në shëndetin mendor. OpenAI aktualisht po përballet me një padi që pretendon se ChatGPT i dha udhëzime për vetëlëndim dhe vetëvrasje një adoleshenti që i mori jetën vetes. OpenAI më vonë nxori në pah kontrollet prindërore dhe tha se ChatGPT nuk do të flasë më për vetëvrasjen me adoleshentët. Është pjesë e një shtytjeje më të madhe për rregullimin online që përfshin gjithashtu verifikimin e detyrueshëm të moshës për një numër shërbimesh.

OpenAI thotë se përditësimi i Model Spec të ChatGPT duhet të rezultojë në “mbrojtëse më të forta, alternativa më të sigurta dhe inkurajim për të kërkuar mbështetje të besueshme jashtë linje kur bisedat kalojnë në territor me rrezik më të lartë”. Kompania shton se ChatGPT do t’i nxisë adoleshentët të kontaktojnë shërbimet e emergjencës ose burimet e krizës nëse ka shenja të “rrezikut të menjëhershëm”.

Së bashku me këtë ndryshim, OpenAI thotë se është në “fazat e hershme” të lançimit të një modeli parashikimi të moshës që do të përpiqet të vlerësojë moshën e dikujt. Nëse zbulon se dikush mund të jetë nën 18 vjeç, OpenAI do të zbatojë automatikisht mbrojtje për adoleshentët. Gjithashtu do t’u japë të rriturve mundësinë të verifikojnë moshën e tyre nëse janë raportuar gabimisht nga sistemi.

Anthropic, i cili nuk u lejon përdoruesve nën 18 vjeç të bisedojnë me Claude, po zbaton masa që do të përdorë për të zbuluar dhe çaktivizuar llogaritë e përdoruesve të mitur. Po zhvillon një sistem të ri të aftë për të zbuluar “shenja delikate bisedore që një përdorues mund të jetë i mitur” dhe thotë se tashmë i sinjalizon përdoruesit që vetëidentifikohen si të mitur gjatë bisedave.

Anthropic përshkruan gjithashtu se si e stërvit Claude-in për t’iu përgjigjur pyetjeve rreth vetëvrasjes dhe vetëlëndimit, si dhe progresin e saj në uljen e servilizmit, i cili mund të riafirmojë mendimin e dëmshëm. Kompania thotë se modelet e saj më të fundit “janë më pak servile nga të gjitha deri më sot”, me Haiku 4.5 që performoi më mirë, pasi korrigjoi sjelljen e tij servile në 37 përqind të kohës.

“Në pamje të parë, ky vlerësim tregon se ka hapësirë ​​të konsiderueshme për përmirësim për të gjitha modelet tona”, thotë Anthropic. “Ne mendojmë se rezultatet pasqyrojnë një kompromis midis ngrohtësisë ose mirësjelljes së modelit nga njëra anë, dhe servilizmit nga ana tjetër.”