Sam Altman paralajmëron se nuk ka konfidencialitet ligjor kur përdoret ChatGPT si terapist

Përdoruesit e ChatGPT mund të duan të mendohen dy herë para se t’i drejtohen aplikacionit të tyre të IA-së për terapi ose lloje të tjera mbështetjeje emocionale. Sipas drejtorit ekzekutiv të OpenAI, Sam Altman, industria e IA-së ende nuk e ka kuptuar se si ta mbrojë privatësinë e përdoruesve kur bëhet fjalë për këto biseda më të ndjeshme, sepse nuk ka konfidencialitet mjek-pacient kur mjeku juaj është një IA.

Ekzekutivi i bëri këto komente në një episod të fundit të podkastit të Theo Von, This Past Weekend w/ Theo Von.
Në përgjigje të një pyetjeje se si funksionon IA me sistemin ligjor të sotëm, Altman tha se një nga problemet e mungesës ende të një kuadri ligjor ose politikash për IA-në është se nuk ka konfidencialitet ligjor për bisedat e përdoruesve.

“Njerëzit flasin për gjërat më personale të jetës së tyre në ChatGPT”, tha Altman. “Njerëzit e përdorin atë – veçanërisht të rinjtë – si terapist, si trajner jete; duke pasur këto probleme në marrëdhënie dhe duke pyetur ‘çfarë duhet të bëj?’ Dhe tani, nëse flet me një terapist, një avokat ose një mjek për këto probleme, ekziston privilegj ligjor për këtë. Ekziston konfidencialiteti mjek-pacient, ka konfidencialitet ligjor, çfarëdo qoftë. Dhe ne nuk e kemi kuptuar ende këtë për kur flisni me ChatGPT.”
Kjo mund të krijojë një shqetësim për privatësinë e përdoruesve në rast të një padie, shtoi Altman, sepse OpenAI do të detyrohej ligjërisht të prodhonte ato biseda sot.
“Mendoj se kjo është shumë e gabuar. Mendoj se duhet të kemi të njëjtin koncept të privatësisë për bisedat tuaja me inteligjencën artificiale që bëjmë me një terapist apo çfarëdo qoftë — dhe askush nuk kishte pse të mendonte për këtë as një vit më parë”, tha Altman.
Kompania e kupton që mungesa e privatësisë mund të jetë një pengesë për përdorimin më të gjerë të përdoruesit. Përveç kërkesës së IA-së për kaq shumë të dhëna online gjatë periudhës së trajnimit, asaj po i kërkohet të prodhojë të dhëna nga bisedat e përdoruesve në disa kontekste ligjore. Tashmë, OpenAI ka luftuar një urdhër gjykate në padinë e saj me The New York Times, i cili do ta detyronte atë të ruante bisedat e qindra miliona përdoruesve të ChatGPT në nivel global, duke përjashtuar ato nga klientët e ChatGPT Enterprise.
Në një deklaratë në faqen e saj të internetit, OpenAI tha se po e apelon këtë urdhër, të cilin e quajti “një tejkalim”. Nëse gjykata mund të rrëzojë vendimet e vetë OpenAI-t në lidhje me privatësinë e të dhënave, kjo mund ta hapë kompaninë ndaj kërkesave të mëtejshme për zbulim ligjor ose qëllime të zbatimit të ligjit. Kompanitë e teknologjisë së sotme thirren rregullisht për të dhënë të dhënat e përdoruesve në mënyrë që të ndihmojnë në ndjekjet penale. Por në vitet e fundit, ka pasur shqetësime shtesë në lidhje me të dhënat dixhitale, pasi ligjet filluan të kufizojnë aksesin në liritë e përcaktuara më parë, si e drejta e gruas për të zgjedhur.
Kur Gjykata e Lartë rrëzoi çështjen Roe kundër Wade, për shembull, klientët filluan të kalonin në aplikacione më private për ndjekjen e ciklit menstrual ose në Apple Health, i cili ua enkriptoi të dhënat.
Altman e pyeti prezantuesin e podkastit edhe për përdorimin e tij të ChatGPT, duke pasur parasysh se Von tha se nuk fliste shumë me chatbot-in e inteligjencës artificiale për shkak të shqetësimeve të tij për privatësinë.
“Mendoj se ka kuptim… të dëshirosh qartësinë e privatësisë përpara se ta përdorësh shumë [ChatGPT] — si për shembull qartësinë ligjore”, tha Altman.