Robotët e AI-së rrisin kërkesat për gjerësi bande të Wikimedia Commons me 50%

foto

Fondacioni Wikimedia, organizata ombrellë e Wikipedia-s dhe një duzinë apo më shumë projekte të tjera të njohurive të mbledhura, tha të mërkurën se konsumi i gjerësisë së brezit për shkarkime multimediale nga Wikimedia Commons është rritur me 50% që nga janari 2024.

foto

Arsyeja, shkroi veshja në një postim në blog të martën, nuk është për shkak të kërkesës në rritje nga njerëzit e etur për njohuri, por nga gërvishtësit e automatizuar dhe të etur për të dhëna që kërkojnë të trajnojnë modele të AI.

foto

“Infrastruktura jonë është ndërtuar për të mbështetur goditjet e papritura të trafikut nga njerëzit gjatë ngjarjeve me interes të lartë, por sasia e trafikut të gjeneruar nga robotët e gërvishtjeve është e paprecedentë dhe paraqet rreziqe dhe kosto në rritje”, thuhet në postim.

Wikimedia Commons është një depo e aksesueshme lirisht e imazheve, videove dhe skedarëve audio që janë të disponueshme nën licenca të hapura ose janë ndryshe në domenin publik.

Duke gërmuar, Wikimedia thotë se pothuajse dy të tretat (65%) e trafikut më “të shtrenjtë” – domethënë, më intensivi i burimeve për sa i përket llojit të përmbajtjes së konsumuar – ishte nga robotët. Sidoqoftë, vetëm 35% e shikimeve të përgjithshme të faqeve vijnë nga këto robotë. Arsyeja për këtë pabarazi, sipas Wikimedia, është se përmbajtja e aksesuar shpesh qëndron më afër përdoruesit në cache-in e saj, ndërsa përmbajtjet e tjera të aksesuara më pak shpesh ruhen më larg në “qendrën bazë të të dhënave”, e cila është më e shtrenjtë për t’u shërbyer përmbajtjes. Ky është lloji i përmbajtjes që zakonisht kërkojnë robotët.

“Ndërsa lexuesit njerëzorë priren të përqendrohen në tema specifike – shpesh të ngjashme, robotët e zvarritës priren të “lexojnë në masë” një numër më të madh faqesh dhe të vizitojnë gjithashtu faqet më pak të njohura”, shkruan Wikimedia. “Kjo do të thotë që këto lloj kërkesash kanë më shumë gjasa të përcillen në qendrën e të dhënave bazë, gjë që e bën atë shumë më të shtrenjtë për sa i përket konsumit të burimeve tona.”

E gjata dhe e shkurtër e gjithë kësaj është se ekipi i besueshmërisë së faqeve të Fondacionit Wikimedia duhet të shpenzojë shumë kohë dhe burime duke bllokuar zvarritësit për të shmangur ndërprerjet për përdoruesit e rregullt. Dhe e gjithë kjo përpara se të marrim parasysh kostot e resë kompjuterike me të cilat përballet Fondacioni.

Në të vërtetë, kjo përfaqëson një pjesë të një tendence në rritje të shpejtë që po kërcënon vetë ekzistencën e internetit të hapur. Muajin e kaluar, inxhinieri i softuerit dhe avokati me burim të hapur ​Drew DeVault u ankua për faktin se zvarritësit e AI injorojnë skedarët “robots.txt” që janë krijuar për të shmangur trafikun e automatizuar. Dhe ” inxhinieri pragmatik ” Gergely Orosz u ankua gjithashtu javën e kaluar se gërvishtësit e AI nga kompani të tilla si Meta kanë rritur kërkesat për gjerësinë e brezit për projektet e tij.

Ndërsa infrastruktura me burim të hapur, në veçanti, është në vijën e duhur , zhvilluesit po luftojnë me “zgjuarsi dhe hakmarrje”, siç shkroi TechCrunch javën e kaluar. Disa kompani teknologjike po bëjnë përpjekjet e tyre për të adresuar gjithashtu këtë çështje – Cloudflare, për shembull, lançoi së fundmi AI Labyrinth, i cili përdor përmbajtje të krijuar nga AI për të ngadalësuar zvarritësit.

Megjithatë, është shumë një lojë mace e miu që në fund të fundit mund të detyrojë shumë botues të fshihen pas hyrjeve dhe mureve të pagesës – në dëm të të gjithë atyre që përdorin ueb-in sot.