OpenAI po shton kontrolle prindërore në ChatGPT

OpenAI ka premtuar të publikojë kontrollet prindërore për ChatGPT brenda muajit të ardhshëm, tha kompania të martën. Sapo kontrollet të jenë të disponueshme, ato do t’u lejojnë prindërve të lidhin llogarinë e tyre personale ChatGPT me llogaritë e fëmijëve të tyre adoleshentë. Prej andej, prindërit do të jenë në gjendje të vendosin se si ChatGPT u përgjigjet fëmijëve të tyre dhe të çaktivizojnë veçori të caktuara, duke përfshirë kujtesën dhe historikun e bisedave. Përveç kësaj, ChatGPT do të gjenerojë alarme automatike kur të zbulojë se një adoleshent është në një “moment shqetësimi akut”. Sipas OpenAI, “kontributi i ekspertëve do ta udhëheqë këtë veçori për të mbështetur besimin midis prindërve dhe adoleshentëve”.

Njoftimi për kontrollet prindërore vjen pasi OpenAI u padit në rastin e parë të njohur të një padie për vdekje të padrejtë kundër një kompanie të inteligjencës artificiale. Në një padi të ngritur javën e kaluar, Matt dhe Maria Raine, prindërit e një adoleshenti që kreu vetëvrasje këtë vit, pretendojnë se ChatGPT ishte në dijeni të katër përpjekjeve të dështuara për vetëvrasje nga djali i tyre përpara se ta ndihmonte të planifikonte vdekjen e tij. Raines thanë se ChatGPT i dha djalit të tyre, Adam, informacion mbi metodat specifike të vetëvrasjes dhe madje i dha këshilla se si të fshihte dëmtimet në qafë të pësuara nga përpjekjet e tij të mëparshme të dështuara.

Të martën, OpenAI tha se kontrollet prindërore janë pjesë e një përpjekjeje më të gjerë nga kompania për të përmirësuar sigurinë në ChatGPT. Veçmas, kompania ka premtuar të punojë me ekspertë të tjerë, duke përfshirë ata që specializohen në çrregullimet e të ngrënit, përdorimin e substancave dhe shëndetin e adoleshentëve, për të përmirësuar modelet e saj.
Kompania ka premtuar gjithashtu të vendosë një router të ri në kohë reale të projektuar për të kanalizuar biseda të ndjeshme përmes modeleve të saj të arsyetimit. “Të trajnuar me një metodë që ne e quajmë shtrirje të menduar mirë, testimi ynë tregon se modelet e arsyetimit ndjekin dhe zbatojnë në mënyrë më të qëndrueshme udhëzimet e sigurisë dhe janë më rezistente ndaj nxitjeve kundërshtare”, tha OpenAI. Duke ecur përpara, në situatat kur ChatGPT zbulon se një person mund të jetë në vështirësi, chatbot do t’i drejtojë ato biseda përmes një modeli arsyetimi, pavarësisht modelit që përdoruesi ka zgjedhur para se të fillojë bisedën.
Në përgjithësi, OpenAI thotë se njerëzit mund të presin më shumë veçori sigurie në të ardhmen. “Kjo punë ka filluar tashmë, por ne duam të paraprijmë në mënyrë proaktive planet tona për 120 ditët e ardhshme, kështu që nuk do të keni nevojë të prisni për lançime për të parë se ku po shkojmë”, tha OpenAI. “Puna do të vazhdojë përtej kësaj periudhe kohore, por ne po bëjmë një përpjekje të fokusuar për të lançuar sa më shumë nga këto përmirësime të jetë e mundur këtë vit.”