OpenAI thotë se ndaloi operacionet e shumta të ndikimit të fshehtë që abuzonin me modelet e tij të AI
OpenAI tha se ndaloi pesë operacione të fshehta të ndikimit që përdorën modelet e saj të AI për aktivitete mashtruese në të gjithë internetin. Këto operacione, të cilat OpenAI i mbylli midis 2023 dhe 2024, e kishin origjinën nga Rusia, Kina, Irani dhe Izraeli dhe u përpoqën të manipulonin opinionin publik dhe të ndikonin në rezultatet politike pa zbuluar identitetet ose synimet e tyre të vërteta, tha kompania të enjten. “Që nga maji 2024, këto fushata nuk duket se kanë rritur ndjeshëm angazhimin ose arritjen e audiencës së tyre si rezultat i shërbimeve tona,” tha OpenAI në një raport rreth operacionit dhe shtoi se ai ka punuar me njerëz në të gjithë industrinë e teknologjisë, civil. shoqëria dhe qeveritë për t’i prerë këta aktorë të këqij.
Raporti i OpenAI vjen mes shqetësimeve në lidhje me ndikimin e AI gjeneruese në zgjedhjet e shumta në mbarë botën të planifikuara për këtë vit, përfshirë edhe në SHBA. Në gjetjet e tij, OpenAI zbuloi se si rrjetet e njerëzve të përfshirë në operacione ndikimi kanë përdorur AI gjeneruese për të gjeneruar tekst dhe imazhe në vëllime shumë më të larta se më parë, dhe angazhim të rremë duke përdorur AI për të gjeneruar komente të rreme në postimet e mediave sociale.
“Gjatë një viti e gjysmë të fundit ka pasur shumë pyetje rreth asaj që mund të ndodhë nëse operacionet e ndikimit përdorin AI gjeneruese,” u tha anëtarëve të medias në një konferencë shtypi Ben Nimmo, hetues kryesor në ekipin e Inteligjencës dhe Hetimeve të OpenAI. tek Bloomberg. “Me këtë raport, ne vërtet duam të fillojmë të plotësojmë disa nga boshllëqet.”
OpenAI tha se operacioni rus i quajtur “Doppelganger”, përdori modelet e kompanisë për të gjeneruar tituj, për të kthyer artikujt e lajmeve në postime në Facebook dhe për të krijuar komente në shumë gjuhë për të minuar mbështetjen për Ukrainën. Një grup tjetër rus përdori modelet e OpenAI për të korrigjuar kodin për një bot Telegram që postonte komente të shkurtra politike në anglisht dhe rusisht, duke synuar Ukrainën, Moldavinë, SHBA-në dhe shtetet baltike. Rrjeti kinez “Spamouflage”, i njohur për përpjekjet e tij për ndikim në Facebook dhe Instagram, përdori modelet e OpenAI për të hulumtuar aktivitetin e mediave sociale dhe për të gjeneruar përmbajtje të bazuar në tekst në gjuhë të shumta nëpër platforma të ndryshme. “Unioni Ndërkombëtar i Mediave Virtuale” iraniane përdori gjithashtu AI për të gjeneruar përmbajtje në shumë gjuhë.
Zbulimi i OpenAI është i ngjashëm me ato që bëjnë herë pas here kompanitë e tjera të teknologjisë. Të mërkurën, për shembull, Meta publikoi raportin e saj të fundit mbi sjelljen e koordinuar joautentike, duke detajuar se si një firmë marketingu izraelite kishte përdorur llogari të rreme në Facebook për të drejtuar një fushatë ndikimi në platformën e saj që synonte njerëzit në SHBA dhe Kanada.