I brendshmi i Facebook që po ndërton moderimin e përmbajtjes për epokën e inteligjencës artificiale
Kur Brett Levenson u largua nga Apple në vitin 2019 për të drejtuar integritetin e biznesit në Facebook, gjigandi i mediave sociale ishte në mes të pasojave të Cambridge Analytica. Në atë kohë, ai mendonte se mund ta zgjidhte thjesht problemin e moderimit të përmbajtjes së Facebook me teknologji më të mirë.

Problemi, e mësoi shpejt ai, ishte më i thellë se teknologjia. Ai tha se rishikuesit njerëzorë pritej të mësonin përmendësh një dokument politikash prej 40 faqesh që ishte përkthyer në mënyrë automatike në gjuhën e tyre. Pastaj ata kishin rreth 30 sekonda për çdo pjesë të përmbajtjes së shënuar për të vendosur jo vetëm nëse ajo përmbajtje shkelte rregullat, por edhe çfarë të bënin në lidhje me të: ta bllokonin atë, ta ndalonin përdoruesin, të kufizonin përhapjen. Ato thirrje të shpejta ishin vetëm “pak më të mira se 50% të sakta”, sipas Levenson.

“Ishte si të hidhje një monedhë, nëse recensentët njerëzorë mund t’i adresonin politikat në mënyrë korrekte, dhe kjo ndodhi shumë ditë pasi dëmi kishte ndodhur gjithsesi”, tha Levenson për TechCrunch.
Ky lloj qasjeje e vonuar dhe reaktive nuk është e qëndrueshme në një botë me aktorë kundërshtarë të shkathët dhe të financuar mirë. Rritja e chatbot-eve të inteligjencës artificiale vetëm sa e ka përkeqësuar problemin, pasi dështimet në moderimin e përmbajtjes kanë rezultuar në një sërë incidentesh të profilit të lartë, si chatbot-et që u ofrojnë adoleshentëve udhëzime për vetëlëndim ose imazhe të gjeneruara nga inteligjenca artificiale që shmangin filtrat e sigurisë.
Zhgënjimi i Levenson çoi në idenë e “politikës si kod” – një mënyrë për të shndërruar dokumentet statike të politikave në logjikë të ekzekutueshme dhe të përditësueshme, të lidhur ngushtë me zbatimin. Ky depërtim çoi në themelimin e Moonbounce, e cila njoftoi të premten se ka mbledhur 12 milionë dollarë fonde, mësoi ekskluzivisht TechCrunch. Raundi u drejtua bashkërisht nga Amplify Partners dhe StepStone Group.
Moonbounce punon me kompanitë për të ofruar një shtresë shtesë sigurie kudo që gjenerohet përmbajtje, qoftë nga një përdorues apo nga inteligjenca artificiale. Kompania ka trajnuar modelin e saj të madh gjuhësor për të parë dokumentet e politikave të një klienti, për të vlerësuar përmbajtjen në kohën e ekzekutimit, për të dhënë një përgjigje në 300 milisekonda ose më pak dhe për të ndërmarrë veprime. Në varësi të preferencës së klientit, ky veprim mund të duket si sistemi i Moonbounce që ngadalëson shpërndarjen ndërsa përmbajtja pret një shqyrtim njerëzor më vonë, ose mund të bllokojë përmbajtjen me rrezik të lartë në moment.
Sot, Moonbounce shërben tre vertikale kryesore: Platformat që merren me përmbajtje të gjeneruar nga përdoruesit, si aplikacionet e takimeve; kompanitë e inteligjencës artificiale që ndërtojnë personazhe ose shoqërues; dhe gjeneratorët e imazheve të inteligjencës artificiale.
Moonbounce mbështet më shumë se 40 milionë vlerësime ditore dhe u shërben mbi 100 milionë përdoruesve aktivë çdo ditë në platformë, tha Levenson. Klientët përfshijnë startup-in shoqërues të inteligjencës artificiale Channel AI, kompaninë e gjenerimit të imazheve dhe videove Civitai, dhe platformat e lojërave me role të personazheve Dippy AI dhe Moescape.
“Siguria mund të jetë në fakt një përfitim i produktit”, tha Levenson për TechCrunch. “Nuk ka qenë kurrë kështu sepse është gjithmonë diçka që ndodh më vonë, jo diçka që mund ta ndërtosh në produktin tënd. Dhe ne shohim që klientët tanë po gjejnë mënyra vërtet interesante dhe inovative për të përdorur teknologjinë tonë për ta bërë sigurinë një dallues dhe pjesë të historisë së produktit të tyre.”
Kreu i besimit dhe sigurisë në Tinder shpjegoi së fundmi se si platforma e takimeve përdor këto lloje shërbimesh të mundësuara nga LLM për të arritur një përmirësim 10-fish në saktësinë e zbulimeve.
“Moderimi i përmbajtjes ka qenë gjithmonë një problem që ka prekur platformat e mëdha online, por tani me LLM-të në zemër të çdo aplikacioni, kjo sfidë është edhe më e frikshme”, tha në një deklaratë Lenny Pruss, partner i përgjithshëm në Amplify Partners. “Ne investuam në Moonbounce sepse parashikojmë një botë ku mbrojtësit objektivë dhe në kohë reale bëhen shtylla kurrizore e çdo aplikacioni të ndërmjetësuar nga IA.”
Kompanitë e inteligjencës artificiale po përballen me presion në rritje ligjor dhe reputacional pasi chatbot-et janë akuzuar se i shtyjnë adoleshentët dhe përdoruesit e cenueshëm drejt vetëvrasjes dhe gjeneratorët e imazheve si Grok i xAI-së janë përdorur për të krijuar imazhe nudo jo konsensuale. Është e qartë se mbrojtjet e brendshme të sigurisë po dështojnë dhe kjo po bëhet një çështje përgjegjësie. Levenson tha se kompanitë e inteligjencës artificiale po kërkojnë gjithnjë e më shumë jashtë mureve të tyre ndihmë për të forcuar infrastrukturën e sigurisë.
“Ne jemi një palë e tretë që qëndron midis përdoruesit dhe chatbot-it, kështu që sistemi ynë nuk është i mbingarkuar me kontekst ashtu siç është vetë chat-i”, tha Levenson. “Vetë chatbot-i duhet të mbajë mend, potencialisht, dhjetëra mijëra token-e që kanë ardhur më parë… Ne jemi të shqetësuar vetëm për zbatimin e rregullave në kohën e ekzekutimit.”
Levenson drejton kompaninë me 12 persona së bashku me ish-kolegun e tij në Apple, Ash Bhardwaj, i cili më parë ndërtoi infrastrukturë të gjerë cloud dhe IA në të gjitha ofertat kryesore të prodhuesit të iPhone. Fokusi i tyre i radhës është një aftësi e quajtur “drejtim përsëritës”, e zhvilluar në përgjigje të rasteve si vetëvrasja në vitin 2024 e një djali 14-vjeçar nga Florida, i cili u fiksua pas një chatbot-i me IA të Karakterit. Në vend të një refuzimi të hapur kur lindin tema të dëmshme, sistemi do të ndërpresë bisedën dhe do ta ridrejtojë atë, duke modifikuar kërkesat në kohë reale për ta shtyrë chatbot-in drejt një përgjigjeje më mbështetëse aktive.
“Shpresojmë të jemi në gjendje t’i shtojmë mjeteve tona të veprimeve mundësinë për ta drejtuar chatbot-in në një drejtim më të mirë, në thelb, për të marrë njoftimin e përdoruesit dhe për ta modifikuar atë për ta detyruar chatbot-in të mos jetë vetëm një dëgjues empatik, por një dëgjues i dobishëm në ato situata”, tha Levenson.
Kur u pyet nëse strategjia e tij e daljes përfshinte një blerje nga një kompani si Meta, duke e çuar punën e tij në moderimin e përmbajtjes në ciklin e plotë, Levenson tha se e kuptonte se sa mirë do të përshtatej Moonbounce në punën e ish-punëdhënësit të tij, si dhe në detyrat e tij fiduciare si CEO.
“Investitorët e mi do të më vrisnin po ta thoja këtë, por do të urreja të shihja dikë të na blinte dhe pastaj të kufizonte teknologjinë”, tha ai. “Si, ‘Në rregull, kjo është e jona tani dhe askush tjetër nuk mund të përfitojë prej saj’.”
