Slack ka mbledhur të dhënat e përdoruesve për të trajnuar modelet e AI pa kërkuar leje
Për organizatat, spektri i të dhënave të brendshme që përdoren për të trajnuar modelet e AI ngre shqetësime serioze rreth sigurisë dhe pajtueshmërisë. Por Slack me sa duket ende ka grumbulluar mesazhe, skedarë dhe të dhëna për të trajnuar veçoritë e tij të AI në prapaskenë. Akoma më keq, përdoruesit u zgjodhën automatikisht në këtë marrëveshje pa dijeninë ose pëlqimin.
Zbulimi, i cili shpërtheu në internet këtë javë pasi një përdorues e thirri atë në X/Twitter, ka bërë shumë njerëz të hidhëruar se Slack nuk e bëri këtë më të qartë nga kërcimi. Corey Quinn, një ekzekutiv në Duckbill Group, nisi bujën me një postim të zemëruar duke pyetur “Më falni Slack, ju jeni duke bërë f**king ÇFARË me DM-të e përdoruesve, mesazhet, skedarët, etj?”
Quinn po i referohej një fragmenti nga Parimet e Privatësisë së Slack që thotë, “Për të zhvilluar modele AI/ML, sistemet tona analizojnë të dhënat e klientit (p.sh. mesazhet, përmbajtjen dhe skedarët) të dorëzuara në Slack si dhe informacione të tjera (përfshirë informacionin e përdorimit) siç përcaktohet në Politikën tonë të Privatësisë dhe në marrëveshjen tuaj të klientit.”
Slack u përgjigj shpejt nën të njëjtin postim, duke konfirmuar se me të vërtetë po përdor përmbajtjen e klientit për të trajnuar mjete të caktuara të AI në aplikacion. Por tërhoqi një vijë – që të dhënat nuk shkojnë drejt ofertës së tyre premium AI, të cilën ata e faturojnë si plotësisht të izoluar nga informacioni i përdoruesit.
Megjithatë, shumica u kapën në befasi nga veçoritë kryesore të inteligjencës artificiale të Slack duke u mbështetur në një prekje të hapur në bisedat dhe skedarët privatë të të gjithëve. Disa përdorues argumentuan se duhet të kishte pasur njoftime të rëndësishme, duke i lënë njerëzit të zgjedhin para se të fillonte çdo mbledhje e të dhënave.
Vetë procesi i heqjes dorë është gjithashtu një sherr. Individët nuk mund të zgjedhin vetë; ata kanë nevojë për një administrator për të gjithë organizatën për ta kërkuar atë duke dërguar email në një rresht shumë specifik subjekti, të cilin mund ta gjeni në postimin e mësipërm.
Disa sulmues të rëndë peshuan, duke grumbulluar kritikat. Meredith Whittaker, presidente e aplikacionit privat të mesazheve Signal , hodhi pak hije, duke thënë “ne nuk i mbledhim të dhënat tuaja në radhë të parë, kështu që nuk kemi asgjë për të ‘minuar’ për ‘AI'”. Oh.
Reagimi thekson rritjen e tensioneve rreth AI dhe privatësisë, ndërsa kompanitë nxitojnë të bashkohen me njëra-tjetrën në zhvillimin e softuerit më të zgjuar.
Mospërputhjet në politikat e Slack nuk po ndihmojnë gjithashtu. Një pjesë thotë se kompania nuk mund të hyjë në përmbajtjen themelore kur zhvillon modele të AI. Një tjetër faqe e marketingut të mjeteve premium gjeneruese të AI të Slack thotë: “Punoni pa u shqetësuar. Të dhënat tuaja janë të dhënat tuaja. Ne nuk i përdorim ato për të trajnuar Slack AI. Gjithçka funksionon në infrastrukturën e sigurt të Slack, duke përmbushur të njëjtat standarde pajtueshmërie si vetë Slack.”
Megjithatë, pranimi i shfrytëzimit të të dhënave të përdoruesit brenda “parimeve të privatësisë” duket se kundërshton këto deklarata.
Në Threads, një inxhinier Slack është përpjekur t’i sqarojë gjërat, duke thënë se rregullat e privatësisë janë “shkruar fillimisht për punën e kërkimit/rekomandimit që kemi bërë për vite përpara Slack AI”, duke pranuar se ato kanë nevojë për një përditësim.
Megjithatë, çështja më e madhe është padyshim qasja e zgjedhjes sipas parazgjedhjes. Ndonëse është e zakonshme në teknologji, ajo bie ndesh me parimet e privatësisë së të dhënave për t’u dhënë njerëzve zgjedhje të qarta se si përdoren informacionet e tyre.