Mjeti i FDA-së me inteligjencë artificiale, i përdorur për miratimin e barnave, gjeneron studime të rreme

Asistenti i ri i inteligjencës artificiale i Administratës Amerikane të Ushqimit dhe Barnave, “Elsa”, i lançuar në qershor për të revolucionarizuar miratimet e barnave, në vend të kësaj po sajon studime joekzistente dhe po krijon më shumë punë për rishikuesit e saj njerëzorë. Sipas një raporti të CNN të 23 korrikut, mjeti nuk është i besueshëm për detyra kritike.

Ky dështim në selinë e FDA-së në Merilend bie në kontrast të fortë me lëvdatat publike të administratës Trump për inteligjencën artificiale. Ai nxjerr në pah rreziqet serioze të vendosjes së teknologjisë së paprovuar në role qeveritare me rrezik të lartë, një problem që po pasqyrohet në të gjithë industrinë e teknologjisë.

IA u zbulua me bujë. Sekretari i HHS, Robert F. Kennedy Jr., deklaroi: “Revolucioni i IA-së ka mbërritur”. Megjithatë, prapa skenave, punonjësit e FDA-së i thanë CNN-së se Elsa e paraqet gabim kërkimin dhe kërkon vigjilencë të vazhdueshme, duke minuar qëllimin e saj.
Komisioneri i FDA-së, Dr. Marty Makary, i minimizoi shqetësimet e brendshme, duke u thënë gazetarëve: “Nuk i kam dëgjuar këto shqetësime specifike, por është opsionale. Ata nuk janë të detyruar ta përdorin Elsën nëse nuk e shohin të vlefshme.” Megjithatë, ky qëndrim anashkalon problemin thelbësor të besueshmërisë për një mjet të prezantuar për të rritur efikasitetin dhe për të përshpejtuar shqyrtimet kritike.
Sipas raportit të CNN, pikëpamja nga brenda agjencisë është shumë më alarmante. Një punonjës e përshkroi mjetin si të pabesueshëm për çdo detyrë që nuk mund të verifikohet dy herë, duke deklaruar se “halucinon me besim”. Një tjetër u ankua për barrën e re, duke thënë: “Unë humbas shumë kohë shtesë vetëm për shkak të vigjilencës së shtuar që duhet të kem”.
Kjo punë shtesë rrjedh nga kufizimet themelore të Elsës. Stafi vunë re se ajo nuk mund të hyjë në shumë dokumente relevante, si dorëzime konfidenciale të industrisë, duke e bërë atë të padobishëm për punën kryesore shkencore të shqyrtimit të të dhënave të sigurisë dhe efikasitetit të barnave. Kur u testua me pyetje bazë, ajo ktheu përgjigje të gabuara.
Kreu i IA-së në agjenci, Jeremy Walsh, e pranoi realitetin teknik, duke pranuar: “Elsa nuk është ndryshe nga shumë modele të mëdha gjuhësore dhe IA gjeneruese. Ato mund të halucinojnë potencialisht.” Ky fenomen, ku një IA gjeneron informacion të sigurt, por krejtësisht të rremë, është e meta qendrore që shqetëson gjeneratën aktuale të modeleve.
Problemi nuk është unik vetëm për mjetin e personalizuar të FDA-së. Edhe modelet më të përparuara komerciale vuajnë prej tij. OpenAI, për shembull, zbuloi në të dhënat e veta të sigurisë se modelet e saj më të reja o3 dhe o4-mini në mënyrë paradoksale fabrikojnë informacion me një shkallë më të lartë në disa teste referimi sesa paraardhësit e tyre.
Studiuesit teorizojnë se kjo ndodh sepse modelet shpërblehen për përgjigjet përfundimtare të sakta, duke mësuar të shpikin hapa që tingëllojnë të besueshëm për të arritur atje. Kjo përkeqësohet kur një model nuk mund të hyjë në arsyetimin e tij paraprak, duke e detyruar atë të sajojë justifikime të hollësishme kur pyetet për procesin e tij.
Ky realitet i ka bërë ekspertët të paralajmërojnë se teknologjia po vendoset para kohe. Dr. Jonathan Chen, një profesor në Universitetin e Stanfordit, e përshkroi situatën hapur, duke paralajmëruar: “Tani është vërtet një lloj Perëndimi i Egër. Teknologjia ecën kaq shpejt, sa është e vështirë të kuptohet saktësisht se çfarë është.”
Vlerësimi i tij nënvizon hendekun gjithnjë e në rritje midis premtimit të inteligjencës artificiale në qeveri dhe realitetit të rrezikshëm të përdorimit të sistemeve të paverifikuara dhe të pabesueshme për vendime që ndikojnë në shëndetin publik.
Problemet e FDA-së nuk janë një incident i izoluar. Në maj të vitit 2025, ekipi ligjor i firmës së inteligjencës artificiale Anthropic u detyrua të kërkonte falje pasi Claude AI e saj shpiku një padi ligjore për një padi për të drejtën e autorit . Gjykatësi në këtë rast vuri në dukje “ndryshimin e madh midis një paditjeje të humbur dhe një halucinacioni të gjeneruar nga inteligjenca artificiale”.
Vetëm një muaj më parë, përdoruesit e redaktorit të kodit të inteligjencës artificiale Cursor u takuan me një robot mbështetës që shpiku një politikë të rreme të kompanisë, duke shkaktuar një reagim të ashpër të përdoruesve që kërkoi një falje publike nga bashkëthemeluesi.
Problemi shtrihet edhe tek produktet e konsumit. Një gabim në inteligjencën artificiale të Gmail ka përkthyer gabimisht email-et në gjermanisht, duke shkaktuar manipulim të konsiderueshëm të përmbajtjes.
Kryeredaktori i T-Online, Florian Harms, tha se “për reputacionin gazetaresk dhe besueshmërinë e mediave serioze, manipulime të tilla me tekst janë shkatërruese”, duke theksuar dëmin që i shkaktohet besueshmërisë profesionale.
Këto dështime të përsëritura i kanë bërë disa ekspertë të paralajmërojnë kundër mbështetjes së tepërt në teknologji. Siç vuri në dukje një analist nga Sauce Labs pas incidentit të Cursor, “Të njoftosh përdoruesit se ‘kjo përgjigje u gjenerua nga IA’ ka të ngjarë të jetë një masë e pamjaftueshme për të rifituar besnikërinë e përdoruesit.”
Ky mendim sugjeron që industria po mëson ngadalë se mohimet e thjeshta të përgjegjësisë dhe masat e transparencës nuk janë të mjaftueshme për të zgjidhur problemet themelore të besimit dhe besueshmërisë.
Kjo varg gabimesh të profilit të lartë po detyron një rikalibrim më të gjerë të industrisë. Një studim mbi inteligjencën artificiale (IA) në qendrat e thirrjeve zbuloi se ajo shpesh krijonte më shumë punë për agjentët njerëzorë. Firma analitike Gartner gjithashtu përmbysi një parashikim kyç, duke parashikuar tani se gjysma e organizatave do të braktisin planet për të zëvendësuar stafin mbështetës njerëzor me IA.
Konsensusi në zhvillim favorizon një model hibrid ku IA shton, në vend që të zëvendësojë, ekspertizën njerëzore. Ky ndryshim pragmatik pranon kufizimet aktuale të teknologjisë dhe pasqyron një kuptim gjithnjë e në rritje se kostoja e gabimeve të IA-së mund të jetë më e madhe se përfitimet e automatizimit.
Fiaskoja e Elsës ndodhi pikërisht kur Shtëpia e Bardhë zbuloi “Planin e saj të Veprimit për IA-në”, një strategji që promovon derregullimin për të përshpejtuar zhvillimin e IA-së . Kjo shtytje për inovacion të shpejtë dhe të pakontrolluar bie ndesh me realitetin e pasigurisë së teknologjisë.
Fokusi i planit në heqjen e “burokracisë” dhe anulimin e urdhrave të mëparshëm mbi menaxhimin e riskut të inteligjencës artificiale mund të përshpejtojë vendosjen e mjeteve si Elsa, pavarësisht provave të qarta të të metave të tyre.
Ekspertët paralajmërojnë se nxitimi për të përdorur inteligjencën artificiale pa mbikëqyrje të mjaftueshme është i rrezikshëm. Dr. Jonathan Chen, një profesor i Universitetit të Stanfordit i cili studion inteligjencën artificiale në mjedise klinike, paralajmëroi: “Tani është vërtet një lloj Perëndimi i Egër. Teknologjia ecën kaq shpejt, sa është e vështirë të kuptohet saktësisht se çfarë është.”
Vlerësimi i tij jep një pamje të një fushe ku përparimi teknologjik e ka tejkaluar në mënyrë dramatike zhvillimin e protokolleve të sigurisë dhe kornizave rregullatore.
FDA ka lëshuar që atëherë një deklaratë duke pranuar sfidat e përdorimit të IA-së gjeneruese. Megjithatë, incidenti i Elsës shërben si një paralajmërim i fuqishëm publik në lidhje me rreziqet e vendosjes së parakohshme të IA-së në qeveri.