Meta do të zgjerojë etiketimin e imazheve të krijuara nga AI në vitin e mbushur me zgjedhje

Meta po zgjeron etiketimin e imazheve të krijuara nga AI në platformat e saj të mediave sociale, Facebook, Instagram dhe Threads, për të mbuluar disa imazhe sintetike që janë krijuar duke përdorur mjete gjeneruese të AI-së së rivalëve – të paktën aty ku rivalët po përdorin atë që ajo thotë si “standardi i industrisë tregues” që përmbajtja është krijuar nga AI dhe që Meta është në gjendje t’i zbulojë.

foto

Zhvillimi do të thotë që gjigandi i mediave sociale pret të etiketojë më shumë imazhe të krijuara nga AI që qarkullojnë në platformat e tij në vazhdim. Por gjithashtu nuk është duke vendosur shifra për asnjë nga këto gjëra – p.sh. sa shumë përmbajtje sintetike kundrejt asaj autentike është duke u shtyrë në mënyrë rutinore te përdoruesit – kështu që sa një lëvizje e rëndësishme mund të jetë kjo në luftën kundër dezinformatave dhe dezinformatave të nxitura nga AI (në një vit masiv për zgjedhjet, globalisht ) është e paqartë.

foto

Meta thotë se tashmë zbulon dhe etiketon “imazhe fotorealiste” që janë krijuar me veglën e saj gjeneruese të inteligjencës artificiale “Imagine with Meta”, e cila u lançua dhjetorin e kaluar . Por, deri më tani, ajo nuk ka etiketuar imazhet sintetike të krijuara duke përdorur mjetet e kompanive të tjera. Pra, ky është hapi që po shpall sot.

“Ne kemi punuar me partnerët e industrisë për të harmonizuar standardet e përbashkëta teknike që sinjalizojnë kur një pjesë e përmbajtjes është krijuar duke përdorur AI,” shkroi presidenti i Meta, Nick Clegg, në një postim në blog duke njoftuar zgjerimin e etiketimit. “Të jesh në gjendje të zbulojmë këto sinjale do të na mundësojë të etiketojmë imazhet e krijuara nga AI që përdoruesit postojnë në Facebook, Instagram dhe Threads.”

Sipas Clegg, Meta do të nxjerrë etiketimin e zgjeruar “në muajt e ardhshëm”; dhe aplikimi i etiketave në “të gjitha gjuhët e mbështetura nga secili aplikacion”.

Një zëdhënës i Metës nuk mund të jepte një afat kohor më specifik; as ndonjë detaj se cilat porosi tregje do të marrin etiketat shtesë kur ne kërkuam më shumë. Por postimi i Clegg sugjeron se shpërndarja do të jetë graduale – “gjatë vitit të ardhshëm” – dhe mund të shohë që Meta të fokusohet në kalendarët zgjedhorë në mbarë botën për të informuar vendimet se kur dhe ku do të nisë etiketimi i zgjeruar në tregje të ndryshme.

“Ne po e ndjekim këtë qasje gjatë vitit të ardhshëm, gjatë të cilit po zhvillohen një sërë zgjedhjesh të rëndësishme në mbarë botën,” shkroi ai. “Gjatë kësaj kohe, ne presim të mësojmë shumë më tepër rreth mënyrës se si njerëzit krijojnë dhe ndajnë përmbajtje të AI, çfarë lloj transparence u duket më e vlefshme njerëzve dhe si evoluojnë këto teknologji. Ajo që mësojmë do të informojë praktikat më të mira të industrisë dhe qasjen tonë në vazhdim.”

Qasja e Meta-s për etiketimin e imazheve të krijuara nga AI mbështetet në zbulimin e mundësuar nga të dy shenjat e dukshme që aplikohen në imazhet sintetike nga teknologjia e tij gjeneruese e AI dhe “filigranët e padukshëm” dhe metadatat që mjeti gjithashtu fut me imazhet e skedarëve. Janë të njëjtat lloje sinjalesh, të ngulitura nga mjetet e rivalëve për gjenerimin e imazhit të AI, që teknologjia e zbulimit të Meta do të kërkojë, sipas Clegg – i cili vëren se ka punuar me kompani të tjera të AI, përmes forumeve si Partneriteti në AI , me qëllim të zhvillimit të standardeve të përbashkëta dhe praktikave më të mira për identifikimin e AI gjeneruese.

Postimi i tij në blog nuk tregon shkallën e përpjekjeve të të tjerëve për këtë qëllim. Por Clegg nënkupton që Meta – në 12 muajt e ardhshëm – do të jetë në gjendje të zbulojë imazhet e krijuara nga AI nga mjetet e bëra nga Google, OpenAI, Microsoft, Adobe, Midjourney dhe Shutterstock, si dhe mjetet e veta të imazhit të AI.

Kur bëhet fjalë për videot dhe audion e gjeneruar nga AI, Clegg sugjeron se në përgjithësi është ende shumë sfiduese për të zbuluar këto lloj falsifikimesh – sepse shënimi dhe filigrani duhet ende të miratohen në shkallë të mjaftueshme që mjetet e zbulimit të bëjnë një punë të mirë. Për më tepër, sinjale të tilla mund të hiqen, përmes redaktimit dhe manipulimit të mëtejshëm të medias.

“[Unë] nuk është ende e mundur të identifikoj të gjithë përmbajtjen e krijuar nga AI dhe ka mënyra që njerëzit mund të heqin shënuesit e padukshëm. Pra, ne po ndjekim një sërë opsionesh,” shkroi ai. “Ne po punojmë shumë për të zhvilluar klasifikues që mund të na ndihmojnë të zbulojmë automatikisht përmbajtjen e krijuar nga AI, edhe nëse përmbajtjes i mungojnë shënuesit e padukshëm. Në të njëjtën kohë, ne po kërkojmë mënyra për ta bërë më të vështirë heqjen ose ndryshimin e filigranëve të padukshëm.

“Për shembull, laboratori Kërkimor i AI i Meta FAIR kohët e fundit ndau kërkime mbi një teknologji të padukshme filigrani që po zhvillojmë të quajtur Signature e qëndrueshme . Kjo integron mekanizmin e filigranizimit direkt në procesin e gjenerimit të imazhit për disa lloje të gjeneratorëve të imazhit, të cilët mund të jenë të vlefshëm për modelet me burim të hapur, kështu që filigrani nuk mund të çaktivizohet.”

Duke pasur parasysh hendekun midis asaj që është teknikisht e mundur në brezin e AI kundrejt anës së zbulimit, Meta po ndryshon politikën e saj për t’u kërkuar përdoruesve që postojnë video “fotorealiste” të krijuar nga AI ose audio “me tingull realist” ta informojnë atë se përmbajtja është sintetike – dhe Clegg thotë se rezervon të drejtën për të etiketuar përmbajtjen nëse e konsideron “rrezik veçanërisht të lartë për të mashtruar materialisht publikun për një çështje të rëndësishme”.

Nëse përdoruesi dështon të bëjë këtë zbulim manual, ai mund të përballet me ndëshkime – sipas standardeve ekzistuese të Komunitetit të Meta-s. (Pra, pezullimet, ndalimet e llogarisë etj.)

“Standardet tona të Komunitetit zbatohen për të gjithë, në të gjithë botën dhe për të gjitha llojet e përmbajtjes, duke përfshirë përmbajtjen e gjeneruar nga AI,” na tha zëdhënësi i Meta kur u pyetën se çfarë lloj sanksionesh mund të përballen përdoruesit që nuk arrijnë të bëjnë një zbulim.

Ndërsa Meta po i kushton vëmendje të madhe rreziqeve rreth falsifikimeve të krijuara nga AI, ia vlen të kujtojmë se manipulimi i mediave dixhitale nuk është asgjë e re dhe mashtrimi i njerëzve në shkallë nuk kërkon mjete të shkëlqyera gjeneruese të AI. Qasja në një llogari të mediave sociale dhe aftësitë më themelore të redaktimit të mediave janë gjithçka që duhet për të bërë një falsifikim që bëhet viral.

Në këtë drejtim, një vendim i fundit nga Bordi Mbikëqyrës, një organ i rishikimit të përmbajtjes i krijuar nga Meta – i cili shqyrtoi vendimin e tij për të mos hequr një video të redaktuar të presidentit Biden me mbesën e tij, e cila ishte manipuluar për të sugjeruar në mënyrë të rreme prekje të papërshtatshme – i kërkoi teknologjisë gjigant për të rishkruar ato që i përshkroi si politika “jokoherente” kur bëhet fjalë për videot e falsifikuara. Bordi theksoi në mënyrë specifike fokusin e Metës në përmbajtjen e krijuar nga AI në këtë kontekst.

“Siç qëndron, politika ka pak kuptim,” shkroi bashkëkryetari i Bordit Mbikëqyrës Michael McConnell. “Ndalon videot e ndryshuara që tregojnë njerëzit që thonë gjëra që nuk i thonë, por nuk ndalon postimet që paraqesin një individ duke bërë diçka që nuk e kanë bërë. Zbatohet vetëm për videot e krijuara përmes AI, por lejon që përmbajtjet e tjera të rreme të largohen.”

I pyetur nëse, në dritën e rishikimit të Bordit, Meta po shikon të zgjerojë politikat e saj për të siguruar që rreziqet e manipulimit të përmbajtjes që nuk lidhen me AI, nuk po injorohen, zëdhënësi i saj nuk pranoi të përgjigjet, duke thënë vetëm: “Përgjigja jonë ndaj këtij vendimi do të jetë e përbashkët. në qendrën tonë të transparencës brenda afatit prej 60 ditësh.”

Postimi në blog i Clegg diskuton gjithashtu përdorimin (deri tani “të kufizuar”) të AI gjeneruese nga Meta si një mjet për ta ndihmuar atë të zbatojë politikat e veta — dhe potencialin që GenAI të marrë më shumë nga puna këtu, me presidentin e Meta që e sugjeron atë mund t’u drejtohet modeleve të mëdha gjuhësore (LLM) për të mbështetur përpjekjet e tij për zbatimin e tij gjatë momenteve të “rrezikut të shtuar”, siç janë zgjedhjet.

“Ndërsa ne përdorim teknologjinë e AI për të ndihmuar në zbatimin e politikave tona, përdorimi ynë i mjeteve gjeneruese të AI për këtë qëllim ka qenë i kufizuar. Por ne jemi optimistë që AI gjeneruese mund të na ndihmojë të heqim përmbajtjen e dëmshme më shpejt dhe më saktë. Mund të jetë gjithashtu e dobishme në zbatimin e politikave tona gjatë momenteve të rrezikut të shtuar, si zgjedhjet,” shkroi ai.

“Ne kemi filluar testimin e Modeleve të Mëdha të Gjuhës (LLM) duke i trajnuar ato mbi Standardet tona të Komunitetit për të ndihmuar në përcaktimin nëse një pjesë e përmbajtjes shkel politikat tona. Këto teste fillestare sugjerojnë që LLM-të mund të performojnë më mirë se modelet ekzistuese të mësimit të makinerive. Ne po përdorim gjithashtu LLM për të hequr përmbajtjen nga radhët e rishikimit në rrethana të caktuara kur kemi shumë besim se nuk shkel politikat tona. Kjo liron kapacitetin për rishikuesit tanë që të fokusohen në përmbajtje që ka më shumë gjasa të thyejë rregullat tona.”

Pra, ne tani kemi Meta duke eksperimentuar me AI gjeneruese si një shtesë e përpjekjeve të saj standarde për moderimin e përmbajtjes me fuqi nga AI, në një përpjekje për të reduktuar volumin e përmbajtjes toksike që pompohet në syrin dhe trurin e rishikuesve të përmbajtjes njerëzore të mbingarkuar, me të gjitha rreziqet e traumës. që nënkupton .

Vetëm AI nuk mund ta rregullonte problemin e moderimit të përmbajtjes së Metës – nëse AI plus GenAI mund ta bëjë këtë duket e dyshimtë. Por mund të ndihmojë gjigantin e teknologjisë të nxjerrë efikasitete më të mëdha në një kohë kur taktika e kontraktimit të moderimit të përmbajtjes toksike te njerëzit me pagesë të ulët po përballet me sfida ligjore në tregje të shumta .

Postimi i Clegg gjithashtu vë në dukje se përmbajtja e krijuar nga AI në platformat e Meta-s është “e pranueshme për t’u kontrolluar nga partnerët tanë të pavarur të kontrollit të fakteve” – ​​dhe për këtë arsye mund të etiketohet edhe si e zhgënjyer (dmth. përveç etiketimit si të gjeneruar nga AI ; ose “Imagjinuar nga AI”, siç e thonë etiketat aktuale të imazhit GenAI të Metës). E cila, sinqerisht, tingëllon gjithnjë e më konfuze për përdoruesit që përpiqen të lundrojnë në besueshmërinë e gjërave që shohin në platformat e saj të mediave sociale – ku një pjesë e përmbajtjes mund të ketë disa shenja udhëzuese të aplikuara në të, vetëm një etiketë ose asnjë.

Clegg gjithashtu shmang çdo diskutim të asimetrisë kronike midis disponueshmërisë së kontrolluesve të fakteve njerëzore, një burim që zakonisht ofrohet nga entitete jofitimprurëse që kanë kohë dhe para të kufizuara për të zhvlerësuar falsifikimet dixhitale në thelb të pakufishme; dhe të gjitha llojet e aktorëve keqdashës me akses në platformat e mediave sociale, të nxitur nga një mori stimujsh dhe financuesish, të cilët janë në gjendje të armatizojnë mjetet e inteligjencës artificiale gjithnjë e më të disponueshme dhe të fuqishme (duke përfshirë ato që vetë Meta po ndërton dhe ofron për të nxitur biznesin e saj të varur nga përmbajtja) kërcënime të dezinformimit në shkallë masive.

Pa të dhëna të forta mbi prevalencën e përmbajtjes sintetike kundrejt asaj autentike në platformat e Meta-s, dhe pa të dhëna se sa efektive janë në të vërtetë sistemet e saj të zbulimit të rreme të AI, nuk mund të konkludojmë – përtej të dukshmes: Meta po ndihet nën presion për t’u parë se po bën. diçka në një vit kur falsifikimet e lidhura me zgjedhjet do të kenë padyshim shumë publicitet.