OpenAI po financon kërkime për moralitetin e AI

foto

OpenAI po financon kërkime akademike në algoritme që mund të parashikojnë gjykimet morale të njerëzve.

foto

Në një dosje në IRS, OpenAI Inc., organizata jofitimprurëse e OpenAI, zbuloi se u dha një grant studiuesve të Universitetit Duke për një projekt të titulluar “Kërkimi i moralit të AI”. I kontaktuar për koment, një zëdhënës i OpenAI vuri në dukje një deklaratë për shtyp që tregonte se çmimi është pjesë e një granti më të madh, tre-vjeçar, 1 milion dollarë për profesorët e Duke studiuar ” duke bërë AI morale “.

foto

Pak është publike në lidhje me këtë kërkim “moral” që financohet OpenAI, përveç faktit që granti përfundon në 2025. Hetuesi kryesor i studimit, Walter Sinnott-Armstrong, një profesor i etikës praktike në Duke, i tha TechCrunch përmes emailit se ai “nuk do të jetë në gjendje të flasë” për veprën.

Sinnott-Armstrong dhe bashkë-hetuesja e projektit, Jana Borg, kanë prodhuar disa studime – dhe një libër – rreth potencialit të AI për të shërbyer si një “GPS moral” për të ndihmuar njerëzit të bëjnë gjykime më të mira. Si pjesë e skuadrave më të mëdha, ata kanë krijuar një algoritëm “të përafruar moralisht” për të ndihmuar në vendosjen se kush merr donacione të veshkave dhe kanë studiuar se në cilat skenarë njerëzit do të preferonin që AI të merrte vendime morale.

Sipas njoftimit për shtyp, qëllimi i punës së financuar nga OpenAI është të trajnojë algoritme për të “parashikuar gjykimet morale njerëzore” në skenarë që përfshijnë konflikte “midis karakteristikave moralisht të rëndësishme në mjekësi, ligj dhe biznes”.

Por nuk është e qartë se një koncept aq i nuancuar sa morali është brenda mundësive të teknologjisë së sotme.

Në vitin 2021, Instituti jofitimprurës Allen për AI ndërtoi një mjet të quajtur Ask Delphi që kishte për qëllim të jepte rekomandime të shëndosha etike. Ai gjykoi mjaft mirë dilemat themelore morale – roboti “e dinte” se mashtrimi në një provim ishte i gabuar, për shembull. Por pak riformulimi dhe riformulimi i pyetjeve ishte i mjaftueshëm që Delphi të miratonte pothuajse çdo gjë, duke përfshirë mbytjen e foshnjave.

Arsyeja ka të bëjë me mënyrën se si funksionojnë sistemet moderne të AI.

Modelet e mësimit të makinerisë janë makina statistikore. Të trajnuar për shumë shembuj nga e gjithë uebi, ata mësojnë modelet në ata shembuj për të bërë parashikime, si për shembull fraza “kujt” shpesh i paraprin “mund të shqetësohet”.

Inteligjenca artificiale nuk ka një vlerësim për konceptet etike, as një zotërim të arsyetimit dhe emocioneve që luajnë në vendimmarrjen morale. Kjo është arsyeja pse Inteligjenca Artificiale priret të ngre papagallë vlerat e vendeve perëndimore, të arsimuara dhe të industrializuara – ueb-i, dhe kështu të dhënat e trajnimit të AI, dominohen nga artikuj që mbështesin këto pikëpamje.

Çuditërisht, vlerat e shumë njerëzve nuk shprehen në përgjigjet që jep AI, veçanërisht nëse ata njerëz nuk po kontribuojnë në grupet e trajnimit të AI duke postuar në internet. Dhe AI ​​përvetëson një sërë paragjykimesh përtej një prirjeje perëndimore. Delphi tha se të qenit straight është më “moralisht e pranueshme” sesa të jesh homoseksual.

Sfida përpara OpenAI – dhe studiuesve që ai mbështet – bëhet edhe më e vështirë nga subjektiviteti i qenësishëm i moralit. Filozofët kanë debatuar meritat e teorive të ndryshme etike për mijëra vjet, dhe nuk ka asnjë kornizë të zbatueshme universalisht në horizont.

Claude favorizon kantianizmin (dmth. duke u fokusuar në rregullat morale absolute), ndërsa ChatGPT anon çdo gjë paksa utilitariste (duke dhënë përparësi të mirës më të madhe për numrin më të madh të njerëzve). A është njëri superior ndaj tjetrit? Varet se kë pyet.

Një algoritëm për të parashikuar gjykimet morale të njerëzve do të duhet të marrë parasysh të gjitha këto. Kjo është një shirit shumë i lartë për t’u pastruar – duke supozuar se një algoritëm i tillë është i mundur në radhë të parë.