Shkencëtarët ndriçojnë një dritë në “Kutinë e zezë” të AI

foto

Një ekip studiuesish nga Universiteti i Gjenevës (UNIGE), Spitalet Universitare të Gjenevës (HUG) dhe Universiteti Kombëtar i Singaporit (NUS) ka zhvilluar një qasje të re për të vlerësuar interpretueshmërinë e teknologjive të inteligjencës artificiale (AI). Ky zbulim hap rrugën për rritjen e transparencës dhe besueshmërisë në mjetet diagnostikuese dhe parashikuese të fuqizuara nga AI.

foto

Metoda e re hedh dritë mbi funksionimin misterioz të të ashtuquajturave algoritme të inteligjencës artificiale të “kutisë së zezë”, duke i ndihmuar përdoruesit të kuptojnë se çfarë ndikon në rezultatet e prodhuara nga AI dhe nëse rezultatet mund t’u besohen. Kjo është veçanërisht e rëndësishme në skenarët që kanë një efekt të rëndësishëm në shëndetin dhe mirëqenien e njeriut, siç është përdorimi i AI në aplikacionet mjekësore.

foto

Hulumtimi ka një rëndësi të veçantë në kontekstin e Aktit të ardhshëm të Bashkimit Evropian për Inteligjencën Artificiale, i cili synon të rregullojë zhvillimin dhe përdorimin e AI brenda BE-së. Gjetjet janë publikuar së fundmi në revistën Nature Machine Intelligence.

Të dhënat e serive kohore – që përfaqësojnë evolucionin e informacionit me kalimin e kohës – janë kudo: për shembull në mjekësi, kur regjistrohet aktiviteti i zemrës me një elektrokardiogram (EKG); në studimin e tërmeteve; ndjekja e modeleve të motit; ose në ekonomi për të monitoruar tregjet financiare. Këto të dhëna mund të modelohen nga teknologjitë e AI për të ndërtuar mjete diagnostikuese ose parashikuese.

Përparimi i AI dhe mësimi i thellë në veçanti – i cili konsiston në trajnimin e një makinerie duke përdorur këto sasi shumë të mëdha të dhënash me qëllimin e interpretimit të tyre dhe të mësimit të modeleve të dobishme – hap rrugën drejt mjeteve gjithnjë e më të sakta për diagnostikimin dhe parashikimin. Megjithatë, pa njohuri se si funksionojnë algoritmet Al ose çfarë ndikon në rezultatet e tyre, natyra e “kutisë së zezë” të teknologjisë së AI ngre pyetje të rëndësishme në lidhje me besueshmërinë.

“Mënyra se si funksionojnë këto algoritme është e paqartë, për të thënë të paktën,” thotë profesori Christian Lovis, Drejtor i Departamentit të Radiologjisë dhe Informatikës Mjekësore në Fakultetin e Mjekësisë UNIGE dhe Shef i Divizionit të Shkencave të Informacionit Mjekësor në HUG. i cili bashkëdrejtoi këtë vepër.

“Natyrisht, aksionet, veçanërisht ato financiare, janë jashtëzakonisht të larta. Por si mund t’i besojmë një makinerie pa kuptuar bazën e arsyetimit të saj? Këto pyetje janë thelbësore, veçanërisht në sektorë të tillë si mjekësia, ku vendimet e fuqizuara nga AI mund të ndikojnë në shëndetin dhe madje edhe jetën e njerëzve; dhe financat, ku mund të çojnë në humbje të mëdha të kapitalit.”

Metodat e interpretueshmërisë synojnë t’u përgjigjen këtyre pyetjeve duke deshifruar pse dhe si një AI mori një vendim të caktuar dhe arsyet pas tij. “Të dish se cilët elementë e kthenin peshoren në favor ose kundër një zgjidhjeje në një situatë specifike, duke lejuar kështu njëfarë transparence, rrit besimin që mund të vendoset tek ata,” thotë Asistent Profesor Gianmarco Mengaldo, Drejtor i MathEXLab në National. Kolegji i Dizajnit dhe Inxhinierisë i Universitetit të Singaporit, i cili bashkëdrejtoi punën.

“Sidoqoftë, metodat aktuale të interpretueshmërisë që përdoren gjerësisht në aplikimet praktike dhe flukset e punës industriale ofrojnë rezultate të prekshme të ndryshme kur zbatohen për të njëjtën detyrë. Kjo ngre pyetjen e rëndësishme: cila metodë interpretueshmërie është e saktë, duke qenë se duhet të ketë një përgjigje unike, të saktë? Prandaj, vlerësimi i metodave të interpretueshmërisë bëhet po aq i rëndësishëm sa interpretueshmëria në vetvete.”

Të dhënat diskriminuese janë kritike në zhvillimin e teknologjive të interpretueshme të AI. Për shembull, kur një AI analizon imazhet, ajo fokusohet në disa atribute karakteristike.

Studentja e doktoraturës në laboratorin e Prof Lovis dhe autori i parë i studimit Hugues Turbé shpjegon: ‘‘Inteligjenca artificiale, për shembull, mund të bëjë dallimin midis një imazhi të një qeni dhe një imazhi të një maceje. I njëjti parim zbatohet për analizimin e sekuencave kohore: makina duhet të jetë në gjendje të zgjedhë elementë – majat që janë më të theksuara se të tjerët, për shembull – për të mbështetur arsyetimin e saj. Me sinjalet e EKG-së, kjo nënkupton rakordimin e sinjaleve nga elektroda të ndryshme për të vlerësuar disonancat e mundshme që do të ishin shenjë e një sëmundjeje të veçantë kardiake.

Zgjedhja e një metode interpretueshmërie midis të gjithave të disponueshme për një qëllim specifik nuk është e lehtë. Metodat e ndryshme të interpretueshmërisë së AI shpesh prodhojnë rezultate shumë të ndryshme, edhe kur aplikohen në të njëjtin grup të dhënash dhe detyrë.

Për të adresuar këtë sfidë, studiuesit zhvilluan dy metoda të reja vlerësimi për të ndihmuar në kuptimin se si AI merr vendime: një për identifikimin e pjesëve më të rëndësishme të një sinjali dhe një tjetër për vlerësimin e rëndësisë së tyre relative në lidhje me parashikimin përfundimtar. Për të vlerësuar interpretueshmërinë, ata fshehën një pjesë të të dhënave për të verifikuar nëse ishin të rëndësishme për vendimmarrjen e AI.

Sidoqoftë, kjo qasje ndonjëherë shkaktonte gabime në rezultate. Për ta korrigjuar këtë, ata trajnuan AI në një grup të dhënash të shtuar që përfshin të dhëna të fshehura që ndihmuan në mbajtjen e të dhënave të balancuara dhe të sakta. Ekipi më pas krijoi dy mënyra për të matur se sa mirë funksionuan metodat e interpretueshmërisë, duke treguar nëse AI po përdorte të dhënat e duhura për të marrë vendime dhe nëse të gjitha të dhënat konsideroheshin në mënyrë të drejtë. “Në përgjithësi, metoda jonë synon të vlerësojë modelin që do të përdoret në të vërtetë brenda domenit të tij operacional, duke siguruar kështu besueshmërinë e tij,” shpjegon Hugues Turbé.

Për të çuar më tej kërkimin e tyre, ekipi ka zhvilluar një grup të dhënash sintetike, të cilën e ka vënë në dispozicion të komunitetit shkencor, për të vlerësuar lehtësisht çdo AI të re që synon interpretimin e sekuencave kohore.

Në vazhdim, ekipi tani planifikon të testojë metodën e tyre në një mjedis klinik, ku shqetësimi rreth AI mbetet i përhapur. “Ndërtimi i besimit në vlerësimin e AI-ve është një hap kyç drejt adoptimit të tyre në mjediset klinike”, shpjegon Dr. Mina Bjelogrlic, e cila drejton ekipin e Mësimit të Makinerisë në Divizionin e Prof Lovis dhe është autori i dytë i këtij studimi. “Studimi ynë fokusohet në vlerësimin e AI-ve bazuar në seritë kohore, por e njëjta metodologji mund të zbatohet për AI-të bazuar në modalitete të tjera të përdorura në mjekësi, të tilla si imazhet ose teksti.”