Rrjetat nervore artificiale më në fund japin të dhëna se si mëson truri

foto

Në vitin 2007, disa nga mendimtarët kryesorë pas rrjeteve të thella nervore organizuan një takim jozyrtar “satelitor” në margjinat e një konference prestigjioze vjetore mbi inteligjencën artificiale. Konferenca kishte refuzuar kërkesën e tyre për një seminar zyrtar; Rrjetat e thella nervore ishin ende disa vite larg nga marrja në dorë e AI. Folësi i fundit i takimit bootleg ishte Geoffrey Hinton nga Universiteti i Torontos, psikologu njohës dhe shkencëtari kompjuterik përgjegjës për disa nga zbulimet më të mëdha në rrjetat e thella. Ai filloi me një qesharake: “Pra, rreth një vit më parë, erdha në shtëpi për të ngrënë darkë dhe thashë, ‘Mendoj se më në fund e kuptova se si funksionon truri’ dhe vajza ime 15-vjeçare tha: ‘Oh, Babi, jo më.”

Publiku qeshi. Hinton vazhdoi, “Pra, ja se si funksionon.” Pasuan më shumë të qeshura.

Shakatë e Hinton përgënjeshtruan një ndjekje serioze: përdorimi i AI për të kuptuar trurin. Sot, rrjetat e thella sundojnë AI pjesërisht për shkak të një algoritmi të quajtur backpropagation, ose backprop. Algoritmi u mundëson rrjetave të thella të mësojnë nga të dhënat, duke i pajisur me aftësinë për të klasifikuar imazhet, për të njohur të folurin, për të përkthyer gjuhët, për të kuptuar kushtet e rrugës për makinat që drejtojnë vetë dhe për të kryer një sërë detyrash të tjera.

Por truri i vërtetë ka shumë pak gjasa që të mbështetet në të njëjtin algoritëm. Nuk është vetëm se “truri është në gjendje të përgjithësojë dhe të mësojë më mirë dhe më shpejt se sistemet moderne të AI”, tha Yoshua Bengio, një shkencëtar kompjuteri në Universitetin e Montrealit, drejtor shkencor i Mila, Quebec Artificial. Instituti i Inteligjencës dhe një nga organizatorët e seminarit 2007. Për një sërë arsyesh, përhapja e pasme nuk është në përputhje me anatominë dhe fiziologjinë e trurit, veçanërisht në korteks.

Bengio dhe shumë të tjerë të frymëzuar nga Hinton kanë menduar për mekanizma më të besueshëm biologjikisht të të mësuarit që të paktën mund të përputhen me suksesin e përhapjes së pasme. Tre prej tyre – shtrirja e reagimeve, përhapja e ekuilibrit dhe kodimi parashikues – kanë treguar premtime të veçanta. Disa studiues po përfshijnë gjithashtu vetitë e disa llojeve të neuroneve kortikale dhe proceseve të tilla si vëmendja në modelet e tyre. Të gjitha këto përpjekje po na sjellin më afër kuptimit të algoritmeve që mund të jenë në punë në tru.

“Truri është një mister i madh. Ekziston një përshtypje e përgjithshme se nëse mund të zhbllokojmë disa nga parimet e saj, mund të jetë e dobishme për AI”, tha Bengio. “Por ajo gjithashtu ka vlerë më vete.”

Për dekada, teoritë e neuroshkencëtarëve rreth mënyrës sesi mësojnë truri udhëhiqeshin kryesisht nga një rregull i prezantuar në vitin 1949 nga psikologu kanadez Donald Hebb, i cili shpesh parafrazohet si “Neuronet që ndezin së bashku, lidhen së bashku”. Kjo do të thotë, sa më i ndërlidhur të jetë aktiviteti i neuroneve ngjitur, aq më të forta janë lidhjet sinaptike midis tyre. Ky parim, me disa modifikime, ishte i suksesshëm në shpjegimin e disa llojeve të kufizuara të detyrave të të mësuarit dhe klasifikimit vizual.

Por funksionoi shumë më pak mirë për rrjetet e mëdha të neuroneve që duhej të mësonin nga gabimet; Nuk kishte asnjë mënyrë të synuar drejtpërdrejt që neuronet thellë brenda rrjetit të mësonin për gabimet e zbuluara, të përditësonin veten dhe të bënin më pak gabime. “Rregulli Hebbian është një mënyrë shumë e ngushtë, e veçantë dhe jo shumë e ndjeshme për të përdorur informacionin e gabimeve,” tha Daniel Yamins, një neuroshkencëtar kompjuterik dhe shkencëtar kompjuteri në Universitetin Stanford.

Sidoqoftë, ishte rregulli më i mirë i të mësuarit që kishin neuroshkencëtarët, dhe madje përpara se të dominonte neuroshkencën, ai frymëzoi zhvillimin e rrjeteve të para nervore artificiale në fund të viteve 1950. Çdo neuron artificial në këto rrjete merr hyrje të shumta dhe prodhon një dalje, si homologu i tij biologjik. Neuroni shumëzon çdo hyrje me një të ashtuquajtur peshë “sinaptike” – një numër që nënkupton rëndësinë e caktuar për atë hyrje – dhe më pas përmbledh të dhënat e ponderuara. Kjo shumë është prodhimi i neuronit. Nga vitet 1960, ishte e qartë se neurone të tillë mund të organizoheshin në një rrjet me një shtresë hyrëse dhe një shtresë dalëse, dhe rrjeti nervor artificial mund të trajnohej për të zgjidhur një klasë të caktuar problemesh të thjeshta. Gjatë stërvitjes, një rrjet nervor vendosi në peshat më të mira për neuronet e tij për të eliminuar ose minimizuar gabimet.