Inteligjenca artificiale nuk mund të përdoret për të mohuar mbulimin e kujdesit shëndetësor, u sqarojnë federatat siguruesve
Kompanitë e sigurimeve shëndetësore nuk mund të përdorin algoritme ose inteligjencë artificiale për të përcaktuar kujdesin ose për të mohuar mbulimin e anëtarëve në planet e Medicare Advantage, sqaruan Qendrat për Shërbimet e Medicare & Medicaid (CMS) në një memo dërguar të gjithë siguruesve të Medicare Advantage.
Memorandumi – i formatuar si një FAQ mbi rregullat e planit të Medicare Advantage (MA) – vjen vetëm disa muaj pasi pacientët ngritën padi duke pretenduar se UnitedHealth dhe Humana kanë përdorur një mjet me të meta të thella të fuqizuara nga AI për të mohuar kujdesin ndaj pacientëve të moshuar në planet MA. Paditë, të cilat kërkojnë statusin e veprimit në grup, përqendrohen në të njëjtin mjet AI, të quajtur nH Predict, i përdorur nga të dy siguruesit dhe i zhvilluar nga NaviHealth, një filial i UnitedHealth.
Sipas padive, nH Predict prodhon vlerësime drakoniane për sa kohë një pacient do të ketë nevojë për kujdes pas akut në ambiente si shtëpi pleqsh të aftë dhe qendra rehabilitimi pas një dëmtimi, sëmundjeje ose ngjarje akut, si një rënie ose një goditje në tru. Dhe punonjësit e NaviHealth përballen me disiplinë për devijime nga vlerësimet, edhe pse ato shpesh nuk përputhen me rekomandimet e mjekëve ose rregullat e mbulimit të Medicare. Për shembull, ndërsa planet MA zakonisht ofrojnë deri në 100 ditë kujdes të mbuluar në një shtëpi të të moshuarve pas një qëndrimi tre-ditor në spital, duke përdorur nH Predict, pacientët në planin MA të UnitedHealth rrallë qëndrojnë në shtëpitë e pleqve për më shumë se 14 ditë përpara se të marrin refuzimet e pagesës. , thuhet në padi.
Është e paqartë se si funksionon saktësisht nH Predict, por thuhet se përdor një bazë të dhënash prej 6 milionë pacientësh për të zhvilluar parashikimet e tij. Megjithatë, sipas njerëzve të njohur me softuerin, ai llogarit vetëm një grup të vogël faktorësh të pacientit, jo një vështrim të plotë të rrethanave individuale të pacientit.
Kjo është një jo-jo e qartë, sipas memo të CMS. Për vendimet e mbulimit, siguruesit duhet “të bazojnë vendimin në rrethanat individuale të pacientit, kështu që një algoritëm që përcakton mbulimin bazuar në një grup më të madh të dhënash në vend të historisë mjekësore individuale të pacientit, rekomandimeve të mjekut ose shënimeve klinike nuk do të ishte në përputhje.” ka shkruar CMS.
CMS më pas dha një hipotezë që përputhet me rrethanat e paraqitura në padi, duke shkruar:
Në një shembull që përfshin një vendim për të përfunduar shërbimet e kujdesit pas akut, një algoritëm ose mjet softuerësh mund të përdoret për të ndihmuar ofruesit ose planet MA në parashikimin e një kohëzgjatjeje të mundshme të qëndrimit, por ky parashikim i vetëm nuk mund të përdoret si bazë për të përfunduar post- shërbimet e kujdesit akut.
Në vend të kësaj, CMS shkroi, në mënyrë që një sigurues t’i japë fund mbulimit, gjendja e pacientit individual duhet të rivlerësohet dhe mohimi duhet të bazohet në kriteret e mbulimit që është postuar publikisht në një faqe interneti që nuk mbrohet me fjalëkalim. Përveç kësaj, siguruesit që mohojnë kujdesin “duhet të japin një shpjegim specifik dhe të detajuar pse shërbimet ose nuk janë më të arsyeshme dhe të nevojshme ose nuk mbulohen më, duke përfshirë një përshkrim të kritereve dhe rregullave të zbatueshme të mbulimit.”
Në padi, pacientët pretenduan se kur mbulimi i kujdesit të rekomanduar nga mjeku u mohua papritur gabimisht, siguruesit nuk u dhanë atyre shpjegime të plota.
Në përgjithësi, CMS zbulon se mjetet e AI mund të përdoren nga siguruesit kur vlerësojnë mbulimin – por në të vërtetë vetëm si një kontroll për t’u siguruar që siguruesi po ndjek rregullat. Një “algoritëm ose mjet softuerësh duhet të përdoret vetëm për të siguruar besnikëri” me kriteret e mbulimit, shkroi CMS. Dhe, për shkak se “kriteret e mbulimit të postuara publikisht janë statike dhe të pandryshueshme, inteligjenca artificiale nuk mund të përdoret për të zhvendosur kriteret e mbulimit me kalimin e kohës” ose të aplikojë kritere të fshehta të mbulimit.
CMS anashkalon çdo debat rreth asaj që cilësohet si inteligjencë artificiale duke ofruar një paralajmërim të gjerë rreth algoritmeve dhe inteligjencës artificiale. “Ka shumë terma të mbivendosur që përdoren në kontekstin e mjeteve softuerike që zhvillohen me shpejtësi,” shkroi CMS.
Algoritmet mund të nënkuptojnë një diagram të rrjedhës vendimtare të një sërë deklaratash nëse-atëherë (d.m.th., nëse pacienti ka një diagnozë të caktuar, ai duhet të jetë në gjendje të marrë një test), si dhe algoritme parashikuese (që parashikojnë gjasat e një shtrimi në të ardhmen, për shembull). Inteligjenca artificiale është përcaktuar si një sistem i bazuar në makineri që mundet, për një grup të caktuar objektivash të përcaktuara nga njeriu, të bëjë parashikime, rekomandime ose vendime që ndikojnë në mjedise reale ose virtuale. Sistemet e inteligjencës artificiale përdorin inpute të bazuara në makinë dhe njerëzore për të perceptuar mjediset reale dhe virtuale; Abstraktimi i perceptimeve të tilla në modele përmes analizës në një mënyrë të automatizuar; dhe përdorni konkluzionet e modelit për të formuluar opsionet për informacion ose veprim.
CMS gjithashtu u shqetësua hapur se përdorimi i secilit prej këtyre llojeve të mjeteve mund të përforcojë diskriminimin dhe paragjykimet – gjë që ka ndodhur tashmë me paragjykimet racore . CMS paralajmëroi siguruesit që të sigurojnë që çdo mjet ose algoritëm i AI që ata përdorin “nuk po përjetëson ose përkeqëson paragjykimet ekzistuese, ose duke futur paragjykime të reja”.
Ndërsa memorandumi në përgjithësi ishte një sqarim i qartë i rregullave ekzistuese MA, CMS përfundoi duke i vënë në dijeni siguruesit se po rrit aktivitetet e tij të auditimit dhe “do të monitorojë nga afër nëse planet MA po përdorin dhe zbatojnë kritere të brendshme mbulimi që nuk gjenden në Medicare. ligjet.” Mospërputhja mund të rezultojë në letra paralajmëruese, plane veprimi korrigjues, ndëshkime monetare dhe sanksione regjistrimi dhe marketingu.