Meta anuloi kontratën me njerëzit që shihnin atë që shihnin syzet e saj
Në shkurt të vitit 2026, punëtorët në Sama, një kompani me seli në Nairobi e kontraktuar nga Meta, u thanë gazetave suedeze Svenska Dagbladet dhe Göteborgs-Posten se kishin shqyrtuar pamjet e kapura nga përdoruesit e syzeve inteligjente Ray-Ban të Metës. Pamjet përfshinin njerëz që kryenin marrëdhënie seksuale, shkonin në tualet, zhvisheshin dhe trajtonin të dhënat bankare. Puna e punëtorëve ishte të etiketonin përmbajtjen në mënyrë që sistemet e inteligjencës artificiale të Metës të mësonin të interpretonin atë që shihnin syzet. Më pak se dy muaj pas publikimit të hetimit, Meta i dha fund kontratës së saj me Samën dhe më 16 prill kompania lëshoi njoftime zyrtare për shkurtim nga puna për 1,108 punonjës. Meta tha se Sama ” nuk i përmbushin standardet tona “. Sama e hodhi poshtë karakterizimin dhe tha se nuk kishte marrë asnjë njoftim për ndonjë dështim. Naftali Wambalo, bashkëthemelues i Lëvizjes së Punëtorëve të Teknologjisë në Afrikë, pretendoi se arsyeja e vërtetë ishte më e thjeshtë: Meta po hakmerrej kundër punëtorëve që folën. Meta nuk i është përgjigjur këtij pretendimi. Njerëzit që trajnuan inteligjencën artificiale panë atë që shihnin syzet. Pastaj ata humbën vendet e tyre të punës.

Meta shiti më shumë se shtatë milionë palë syze inteligjente Ray-Ban në vitin 2025, duke e trefishuar vëllimin e vitit të kaluar. Linja e produkteve është zgjeruar që atëherë për të përfshirë modele me recetë të dizajnuara për të arritur miliarda njerëz që tashmë blejnë syze korrigjuese, duke e shndërruar atë që ishte një risi në diçka më afër një standardi. Syzet regjistrojnë video, kapin foto, transmetojnë audio dhe drejtojnë pyetje përmes Meta AI, e cila përpunon imazhe dhe komanda zanore ose në pajisje ose në cloud. Një LED i vogël në korniza ndriçon kur kamera është aktive, të cilën Meta e ka përshkruar si një mbrojtje të privatësisë. Drita është projektuar për njerëzit përreth përdoruesit, jo për vetë përdoruesin. Ajo u tregon të huajve se po regjistrohen. Nuk u tregon atyre se regjistrimi mund të rishikohet nga një qenie njerëzore në një vend tjetër, i ulur në një tavolinë në Nairobi, duke etiketuar atë që shohin në mënyrë që një algoritëm të mund të mësojë ndryshimin midis një kuzhine dhe një dhome gjumi, një shtrëngimi duarsh dhe një përqafimi, një dokumenti dhe një fytyre.

Politika e privatësisë e Meta-s për syzet thotë se përdoruesit që zgjedhin të ndajnë të dhëna për qëllime trajnimi për inteligjencën artificiale lejojnë që pamjet e tyre të përpunohen nga sistemet e inteligjencës artificiale të kompanisë. Politika nuk ndalet në shtresën njerëzore midis kamerës dhe algoritmit. Të dhënat e trajnimit të inteligjencës artificiale nuk e etiketojnë veten. Përpara se një model të mësojë të interpretojë një skenë, një person duhet së pari ta shikojë skenën dhe ta përshkruajë atë. Hetimi suedez zbuloi se si duket ky proces në praktikë: punëtorë në Kenia, të punësuar nga një kontraktor i palës së tretë, duke parë momentet më private të jetës së të huajve, duke i kataloguar ato dhe duke kaluar në klipin tjetër. Pamjet nuk u anonimuan para shqyrtimit. Punëtorët mund të shihnin fytyra, trupa dhe dokumente personale. Ata nuk kishin asnjë mënyrë për të kontaktuar njerëzit që filmoheshin, asnjë mekanizëm për të sinjalizuar pamjet që besonin se ishin kapur pa pëlqimin e tyre dhe asnjë autoritet për të refuzuar punën pa rrezikuar punësimin e tyre.
Sama u themelua në vitin 2008 si një ndërmarrje sociale me misionin e deklaruar për të ofruar punë dixhitale dinjitoze për njerëzit në komunitetet me të ardhura të ulëta. Kompania ka operacione në Kenia, Ugandë dhe Indi, dhe ka ofruar shërbime shënimi të të dhënave për disa nga kompanitë më të mëdha të teknologjisë në botë, duke përfshirë Google, Microsoft dhe Meta. Kontrata me Meta për shënimin e të dhënave të syzeve inteligjente ishte një nga disa që Sama kishte me kompaninë. Punëtorëve iu ngarkua detyra të etiketonin imazhet dhe videot e kapura nga syzet për të trajnuar modelet e inteligjencës artificiale të Meta-s, një proces që kërkonte që ata të shihnin, kategorizonin dhe përshkruanin çdo gjë që kishin regjistruar kamerat.
Hetimi suedez, i publikuar në fund të shkurtit 2026, raportoi se punëtorët përshkruan se kishin parë përdorues të angazhuar në aktivitet seksual, duke përdorur tualetin, duke zhveshur dhe duke shfaqur informacion financiar në ekran. Përmbajtja nuk ishte e jashtëzakonshme. Ishte mbetje e zakonshme e një kamere të mbajtur në fytyrën e dikujt gjatë gjithë ditës, duke kapur çdo gjë që personi që e mbante po shikonte. Punëtorët u thanë gazetarëve se përvoja ishte shqetësuese, por se ata kishin mundësi të kufizuara: puna paguhej më mirë se shumica e alternativave të disponueshme dhe kontratat e Samës zakonisht përfshinin marrëveshje konfidencialiteti që dekurajonin diskutimin publik të përmbajtjes që ata shqyrtonin. Kur botimet suedeze e zbuluan lajmin, ata u dhanë punëtorëve një zë që nuk u ishte lejuar më parë ta përdornin.
Më 16 prill, më pak se shtatë javë pasi u publikua hetimi, Sama njoftoi 1,108 punonjës se pozicionet e tyre po shkurtoheshin. Punëtorët morën njoftim gjashtë ditë më parë. Deklarata e Metës ia atribuoi pushimin nga puna dështimit të Samës për të përmbushur standardet e saj, por nuk pranoi të specifikonte se cilat standarde ishin shkelur ose kur ishte bërë vlerësimi. Sama tha se ishte ” i befasuar dhe i zhgënjyer ” nga vendimi i Metës dhe se nuk ishte informuar për ndonjë mangësi në performancë para pushimit nga puna. Koha u vu re nga avokatët e punës, rregullatorët dhe vetë punëtorët. Wambalo, organizata e të cilit përfaqëson punëtorët e të dhënave në të gjithë kontinentin, e përshkroi arsyetimin e Metës si një mbulesë për hakmarrje: kompania, tha ai, po zbatonte “standarde të sekretit” në vend të standardeve të cilësisë.
Kjo nuk është hera e parë që marrëdhënia e Samës me Metën ka përfunduar në polemika. Midis viteve 2019 dhe 2023, Sama punësoi moderatorë përmbajtjeje në Nairobi, të cilët rishikonin postimet e shënuara si potencialisht shkelëse të standardeve të komunitetit të Facebook-ut. Puna kërkonte që moderatorët të shihnin dhunë grafike, abuzim seksual, gjuhë urrejtjeje dhe materiale të tjera shqetësuese për orë të tëra çdo ditë, shpesh me paga deri në 1.50 dollarë në orë. Një hetim i vitit 2022 nga revista Time zbuloi se 81 përqind e 144 moderatorëve të përmbajtjes së Samës që iu nënshtruan vlerësimit klinik u diagnostikuan me simptoma ” të rënda ” ose ” jashtëzakonisht të rënda ” të çrregullimit të stresit post-traumatik. Ish-punonjësit ngritën padi në Kenia duke pretenduar se Sama dhe Meta i kishin nënshtruar ata ndaj kushteve që përbënin trafikim qeniesh njerëzore dhe kishin ndërhyrë në përpjekjet e tyre për të formuar një sindikatë. Sama më vonë tha publikisht se “i vinte keq” që mori përsipër punën e moderimit të përmbajtjes dhe u largua nga biznesi në vitin 2023 për t’u përqendruar në atë që e përshkroi si shërbime më pak të dëmshme të shënimeve të të dhënave.
Kontrata e syzeve inteligjente supozohej të ishte ndryshe. Shënimi i të dhënave, etiketimi i imazheve dhe videove për të trajnuar IA-në, në përgjithësi konsiderohet më pak traumatik sesa moderimi i përmbajtjes, i cili kërkon që punëtorët të përballen me materialin më të keq që prodhojnë njerëzit. Por hetimi suedez zbuloi se dallimi varet tërësisht nga ajo që IA po trajnohet të shohë. Kur IA është e lidhur me një aparat fotografik të mbajtur në fytyrën e dikujt gjatë gjithë ditës, të dhënat e trajnimit janë jeta e tyre. Punëtorët që etiketuan pamjet e syzeve inteligjente të Meta-s nuk po shqyrtonin përmbajtjen që përdoruesit kishin zgjedhur të ngarkonin në një platformë. Ata po shqyrtonin përmbajtjen që një aparat fotografik kishte kapur në mënyrë pasive, shpesh pa dijeninë ose pëlqimin kuptimplotë të njerëzve që filmoheshin. Natyra e punës kishte ndryshuar, por dinamika strukturore jo: një kompani e Silicon Valley ua jep koston njerëzore të ambicieve të saj të IA-së punëtorëve në Afrikën Lindore të cilëve u mungon fuqia negociuese për të vendosur kushtet e punës së tyre.
Përgjigja rregullatore dhe ligjore ka qenë e shpejtë sipas standardeve të zbatimit të teknologjisë. Zyra e Komisionerit të Informacionit në Mbretërinë e Bashkuar i shkroi Metës në fillim të marsit, duke e quajtur raportin suedez ” shqetësues ” dhe duke kërkuar informacion se si përpunohen, ruhen dhe rishikohen të dhënat e kapura nga syzet. Zyra e Komisionerit të Mbrojtjes së të Dhënave në Kenia njoftoi një hetim nëse praktikat e mbledhjes së të dhënave të syzeve përputhen me ligjin kenian të mbrojtjes së të dhënave. Në Shtetet e Bashkuara, Firma Ligjore Clarkson ngriti një padi kolektive në emër të konsumatorëve, duke pretenduar se Meta u përfshi në reklama të rreme duke i tregtuar syzet si “të dizajnuara për privatësi, të kontrolluara nga ju”, ndërsa drejtonte pamjet e përdoruesve përmes një tubacioni rishikimi njerëzor në një vend me zbatim më të dobët të mbrojtjes së të dhënave sesa tregjet ku shiten syzet. Fondacioni Electronic Frontier publikoi një këshillë të titulluar “Mendoni dy herë para se të blini ose përdorni Ray-Ban të Metës”, duke paralajmëruar se veçoritë e inteligjencës artificiale të syzeve lejojnë ” të gjitha pjesët e jetës së tyre të regjistrohen dhe më pas të rishikohen, qoftë nga inteligjencat artificiale ose nga njerëzit që qëndrojnë pas saj ” .
Ankesat për privatësi kundër Metës për përdorimin e të dhënave personale për të trajnuar IA-në kanë qenë në rritje në të gjithë Bashkimin Evropian, ku noyb paraqiti 11 ankesa të njëkohshme pranë autoriteteve kombëtare të mbrojtjes së të dhënave duke pretenduar se praktikat e trajnimit të IA-së të Metës shkelin Rregulloren e Përgjithshme të Mbrojtjes së të Dhënave. Ankesat përqendrohen në vendimin e Metës për të përpunuar të dhënat e përdoruesve sipas një ” interesit legjitim ” në vend që të kërkojnë pëlqim të qartë. Polemika e syzeve inteligjente i shton një dimension fizik asaj që kishte qenë kryesisht një mosmarrëveshje dixhitale: është një gjë të trajnosh IA-në mbi postimet që përdoruesit shkruan në Facebook dhe një tjetër ta trajnosh atë mbi pamjet e njerëzve në dhomat e tyre të gjumit, të kapura nga një pajisje dhe të shqyrtuara nga një i huaj. Meta ka argumentuar se rregulloret evropiane të privatësisë po “mbytin” inovacionin e IA-së dhe se rregullimi parandalues i “dëmeve teorike” do t’i pengojë bizneset evropiane të përfitojnë nga përparimet e IA-së. Dëmet e dokumentuara nga hetimi suedez nuk janë teorike. Ata janë punëtorë në Nairobi që panë të huaj të zhvisheshin dhe më pas u thanë se vendet e tyre të punës nuk ekzistonin më.
Ambiciet e Metës për inteligjencën artificiale kërkojnë një vëllim të madh të të dhënave të trajnimit të etiketuara nga njerëzit. Kompania po ndërton një klon të Mark Zuckerberg për inteligjencën artificiale për punonjësit e saj, duke zhvilluar modelin Muse Spark për të fuqizuar platformat e saj dhe duke zgjeruar aftësitë e syzeve për inteligjencën artificiale për të përfshirë kuptimin vizual në kohë reale, identifikimin e objekteve dhe ndihmën në bisedë. Secili prej këtyre produkteve varet nga i njëjti kanal: njerëzit shikojnë të dhënat, përshkruajnë atë që shohin dhe përshkrimet e tyre bëhen udhëzimet që i mësojnë modelit se si duket bota. Kur ky kanal përfshin një kontraktor, njerëzit bëhen të padukshëm. Ata nuk shfaqen në njoftimet e produkteve, thirrjet e fitimeve ose materialet e marketingut të Metës. Ata shfaqen vetëm kur diçka shkon keq, kur një gazetë suedeze publikon një hetim ose kur një shkelje e kontraktorit ekspozon brishtësinë e operacionit të trajnimit.
Mercy Mutemi, avokatja keniane e të drejtave të njeriut që drejton Oversight Lab, i tha BBC-së se modeli i dhënies së kostove njerëzore të Inteligjencës Artificiale te punëtorët e Afrikës Lindore përfaqëson një dështim strukturor, jo një devijim. ” Ky është një themel shumë i dobët për të ndërtuar të gjithë industrinë tuaj “, tha ajo. Industria që ajo po përshkruan vlen triliona dollarë. Fondacioni që ajo po përshkruan është një fuqi punëtore e paguar me paga për shënimin e të dhënave në Nairobi, të cilëve u jepet njoftim gjashtë ditësh kur përfundon kontrata dhe të cilëve marrëveshjet e moszbulimit u pengojnë t’i tregojnë askujt se çfarë kanë parë. Syzet inteligjente të Metës janë të dizajnuara për privatësi, të kontrolluara nga përdoruesi. Pyetja që iu përgjigj hetimi suedez është se cili përdorues: personi që mban syzet, apo personi në Nairobi që pa pamjet dhe humbi punën për shkak se foli për to.
