Mbikëqyrësit e të dhënave të BE-së i thonë OpenAI se ka më shumë punë për të bërë në ChatGPT

foto

Bordi Evropian për Mbrojtjen e të Dhënave (EDPB) ka publikuar një raport paraprak mbi hetimet mbi ChatGPT nga autoritetet kombëtare të mbrojtjes së të dhënave. Autoriteti sheh disa praktika problematike në përpunimin e të dhënave personale nga OpenAI.

foto

Deri më 15 shkurt, OpenAI nuk kishte një zyrë në BE, e cila lejonte autoritetet mbikëqyrëse kombëtare të hapnin hetime në mënyrë të pavarur.

foto

Me themelimin e OpenAI Ireland Limited, kompania tani bie nën të ashtuquajturin mekanizëm one-stop shop. Kjo do të thotë se DPA irlandeze pritet të marrë përgjegjësinë kryesore për mbikëqyrjen e OpenAI në Evropë.

Task Forca EDPB ka zhvilluar një listë të përbashkët pyetjesh që i është dorëzuar OpenAI nga disa autoritete. Ai mbulon të gjitha llojet e çështjeve të mbrojtjes së të dhënave, të tilla si baza ligjore për përpunimin e të dhënave, transparenca për subjektet e të dhënave, siguria e të dhënave, periudhat e ruajtjes së të dhënave dhe të drejtat e subjekteve të të dhënave. Pyetësori i EDPB mund të gjendet në faqen 9 të raportit.

Autoriteti thotë se OpenAI grumbullon shumë të dhëna personale duke lexuar burime të disponueshme publikisht (skrapimi në ueb). Në këtë rast, interesi legjitim duhet të peshohet kundrejt interesave të subjekteve të të dhënave. OpenAI duhet të paktën të marrë parasysh masat teknike për të përjashtuar disa kategori të dhënash dhe burime, dhe për të anonimizuar ose fshirë të dhënat përpara trajnimit.

Përpunimi i kategorive të veçanta të të dhënave personale, siç janë të dhënat në lidhje me shëndetin ose orientimin seksual, lejohet vetëm në kushte strikte. Autoriteti thotë se vetëm për shkak se përdoruesit postojnë diçka nuk do të thotë se mund të përdoret. Është gjithashtu e rëndësishme që të ketë masa filtrimi gjatë dhe pas mbledhjes së të dhënave për të përjashtuar kategoritë përkatëse të të dhënave.

Raporti gjithashtu shikon se si përdoret informacioni i përdoruesit për të trajnuar modelet gjuhësore. OpenAI thotë se e bën këtë sepse ka një arsye të mirë për ta bërë këtë, dmth. ka një “interes legjitim”. EDPB beson se përdoruesve duhet të paktën t’u thuhet për këtë dhe se transparenca është e rëndësishme kur balancohen interesat.

OpenAI ka bërë disa përmirësime në këtë fushë që nga fillimi i ChatGPT, por ka ende shumë konfuzion rreth asaj se kur dhe si përdoren të dhënat për trajnimin e AI, dhe rreziqet e përfshira.

Për më tepër, OpenAI nuk duhet të vendosë përgjegjësinë mbi përdoruesit për të siguruar që kërkesat e tyre të jenë në përputhje me GDPR. Nëse një chatbot i aksesueshëm nga publiku ushqehet me të dhëna personale, ofruesi është ende përgjegjës për të siguruar që shërbimi i tij të mbetet në përputhje me GDPR.