Apple paditi për braktisjen e zbulimit CSAM për iCloud
Apple është nën kontroll ligjor pasi një grua, duke përdorur një pseudonim për të mbrojtur identitetin e saj, ngriti një padi duke pretenduar se kompania dështoi viktima të abuzimit seksual të fëmijëve duke braktisur planin e saj të zbulimit CSAM.
Funksioni, i shpallur në vitin 2021, duhej të skanonte imazhet iCloud për materialet e abuzimit seksual të fëmijëve (CSAM) duke përdorur teknologjinë në pajisje. Ndërsa Apple ruajti një mjet për zbulimin e lakuriqësisë për aplikacionin e tij Messages, veçoria e zbulimit CSAM u hoq në vitin 2022 mes shqetësimeve të privatësisë dhe sigurisë të ngritura nga ekspertët dhe grupet e avokimit.
Padia argumenton se vendimi i Apple ka përjetësuar ndarjen e materialeve të paligjshme në internet dhe ka thyer premtimin e kompanisë për të mbrojtur viktimat e abuzimit si ajo.
Paditësja 27-vjeçare, e cila ishte abuzuar si fëmijë, pretendon se vendimi i Apple për të eliminuar zbulimin CSAM e la atë të pambrojtur. Ajo tregon se zbatimi i ligjit e informoi se imazhet e abuzimit të saj ishin ruajtur në iCloud përmes një MacBook të sekuestruar në Vermont. Ajo akuzon Apple për shitjen e “produkteve me defekt” që nuk arrijnë të mbrojnë viktimat, duke kërkuar ndryshime në praktikat e Apple dhe kompensim për individët e prekur.
Padia thekson se kompanitë e tjera të teknologjisë, si Google dhe Meta, përdorin mjete të skanimit CSAM që zbulojnë dukshëm më shumë materiale të paligjshme sesa veçoritë e Apple për zbulimin e lakuriqësisë. Ekipi i saj ligjor vlerëson se deri në 2680 viktima mund t’i bashkohen padisë, duke rezultuar potencialisht në dëme që tejkalojnë 1.2 miliardë dollarë nëse Apple shpallet përgjegjëse.
Kjo padi nuk është beteja e vetme ligjore e Apple në lidhje me çështjet e lidhura me CSAM. Në një rast të veçantë, një viktimë nëntë vjeçare dhe familja e saj paditën Apple në Karolinën e Veriut. Vajza pretendon se të huajt përdorën lidhje iCloud për t’i dërguar asaj video CSAM dhe e inkurajuan atë të krijonte dhe ngarkonte materiale të ngjashme.
Apple ka kërkuar të hedhë poshtë këtë rast, duke përmendur mbrojtjen e Seksionit 230 federal, i cili mbron kompanitë nga përgjegjësia për përmbajtjen e ngarkuar nga përdoruesit. Megjithatë, vendimet e fundit të gjykatës sugjerojnë se këto mbrojtje mund të mos zbatohen nëse kompanitë nuk arrijnë të moderojnë në mënyrë aktive përmbajtjen e dëmshme.
Apple ka mbrojtur qëndrimin e saj, duke përsëritur angazhimin e saj për të luftuar shfrytëzimin e fëmijëve pa cenuar privatësinë e përdoruesit. Kompania theksoi risitë si zbulimi i lakuriqësisë në aplikacionin e saj Messages dhe aftësinë e përdoruesve për të raportuar përmbajtje të dëmshme.
Megjithatë, avokatja e paditëses, Margaret Mabie, argumenton se këto masa janë të pamjaftueshme. Hetimi i Mabie zbuloi mbi 80 raste të shpërndarjes së imazheve të paditësit, përfshirë nga një individ në Kaliforni i cili ruante mijëra imazhe të paligjshme në iCloud.
Ndërsa zhvillohen procedurat ligjore, Apple përballet me presion në rritje për të balancuar privatësinë e përdoruesit me mbrojtje efektive kundër përmbajtjes së dëmshme.