Jensen Huang i Nvidia thotë se halucinacionet e AI janë të zgjidhshme, inteligjenca e përgjithshme artificiale është 5 vjet larg

Inteligjenca e përgjithshme artificiale (AGI) – shpesh e referuar si “AI i fortë”, “AI i plotë”, “AI i nivelit njerëzor” ose “veprim inteligjent i përgjithshëm” – përfaqëson një hap të rëndësishëm të ardhshëm në fushën e inteligjencës artificiale. Ndryshe nga AI i ngushtë, i cili është përshtatur për detyra specifike, të tilla si zbulimi i të metave të produktit, përmbledhja e lajmeve ose ndërtimi i një uebsajti për ju, AGI do të jetë në gjendje të kryejë një spektër të gjerë detyrash njohëse në ose mbi nivele njerëzore. Duke iu drejtuar shtypit këtë javë në konferencën vjetore të zhvilluesve të GTC të Nvidia -s, CEO Jensen Huang dukej se po mërzitej shumë duke diskutuar këtë temë – jo më pak sepse e gjen veten të keqcituar shumë, thotë ai.

foto

Frekuenca e pyetjes ka kuptim: Koncepti ngre pyetje ekzistenciale në lidhje me rolin e njerëzimit dhe kontrollin e një të ardhmeje ku makinat mund të mendojnë, të mësojnë dhe të tejkalojnë njerëzit në pothuajse çdo fushë. Thelbi i këtij shqetësimi qëndron në paparashikueshmërinë e proceseve dhe objektivave të vendimmarrjes së AGI, të cilat mund të mos përputhen me vlerat ose prioritetet njerëzore (një koncept i eksploruar në thellësi në fantashkencë që të paktën që nga vitet 1940 ). Ekziston shqetësimi se sapo AGI të arrijë një nivel të caktuar autonomie dhe aftësie, mund të bëhet e pamundur të përmbahet ose kontrollohet, duke çuar në skenarë ku veprimet e saj nuk mund të parashikohen ose të kthehen.

foto

Kur shtypi sensacionalist kërkon një afat kohor, ai shpesh po i kërcënon profesionistët e AI për të vendosur një afat kohor për fundin e njerëzimit – ose të paktën status quo-në aktuale. Eshtë e panevojshme të thuhet se CEO-t e AI nuk janë gjithmonë të etur për të trajtuar këtë temë.

Huang, megjithatë, kaloi pak kohë duke i treguar shtypit se çfarë mendon për këtë temë. Parashikimi se kur do të shohim një AGI të kalueshme varet nga mënyra se si e përcaktoni AGI-në, argumenton Huang dhe tërheq disa paralele: Edhe me ndërlikimet e zonave kohore, ju e dini kur vjen Viti i Ri dhe 2025 rrotullohet. Nëse jeni duke udhëtuar me makinë për në Qendrën e Konventave në San Jose (ku po mbahet konferenca e GTC e këtij viti), në përgjithësi e dini se keni mbërritur kur mund të shihni pankartat e mëdha të GTC. Pika thelbësore është se ne mund të biem dakord se si të matim që keni mbërritur, qoftë përkohësisht apo gjeohapësinore, ku shpresonit të shkonit.

“Nëse kemi specifikuar AGI të jetë diçka shumë specifike, një grup testesh ku një program softuer mund të bëjë shumë mirë – ose ndoshta 8% më mirë se shumica e njerëzve – besoj se do të arrijmë atje brenda 5 viteve”, shpjegon Huang. Ai sugjeron se testet mund të jenë një provim juridik, teste logjike, teste ekonomike ose ndoshta aftësi për të kaluar një provim paraprak. Nëse pyetësi nuk është në gjendje të jetë shumë specifik për atë që do të thotë AGI në kontekstin e pyetjes, ai nuk është i gatshëm të bëjë një parashikim. Mjaft e drejtë.

Në sesionin e pyetjeve dhe përgjigjeve të së martës, Huang u pyet se çfarë të bënte në lidhje me halucinacionet e AI – tendenca që disa AI të krijojnë përgjigje që duken të besueshme, por që nuk bazohen në fakt. Ai u shfaq dukshëm i frustruar nga pyetja dhe sugjeroi se halucinacionet janë të zgjidhshme lehtësisht – duke u siguruar që përgjigjet të jenë të hulumtuara mirë.

“Shtoni një rregull: për çdo përgjigje të vetme, duhet të kërkoni përgjigjen,” thotë Huang, duke iu referuar kësaj praktike si “gjeneratë e shtuar me rikthim”, duke përshkruar një qasje shumë të ngjashme me edukimin bazë mediatik: Shqyrtoni burimin dhe kontekstin . Krahasoni faktet e përmbajtura në burim me të vërtetat e njohura dhe nëse përgjigja është faktikisht e pasaktë – qoftë edhe pjesërisht – hidheni të gjithë burimin dhe kaloni te tjetri. “Inteligjenca artificiale nuk duhet vetëm të përgjigjet; së pari duhet të bëjë kërkime për të përcaktuar se cilat nga përgjigjet janë më të mirat.”

Për përgjigjet kritike për misionin, si këshillat shëndetësore ose të ngjashme, CEO i Nvidia sugjeron që ndoshta kontrollimi i burimeve të shumta dhe burimeve të njohura të së vërtetës është rruga përpara. Sigurisht, kjo do të thotë që gjeneruesi që po krijon një përgjigje duhet të ketë opsionin për të thënë, “Unë nuk e di përgjigjen për pyetjen tuaj” ose “Unë nuk mund të arrij në një konsensus se cila është përgjigja e duhur kjo pyetje është, ose edhe diçka si “Hej, Super Bowl nuk ka ndodhur ende, kështu që nuk e di se kush fitoi .”