CEO i Anthropic paralajmëron se njerëzimi mund të mos jetë gati për inteligjencë artificiale të avancuar

foto

Drejtori Ekzekutiv i Anthropic PBC, Dario Amodei, publikoi sot një ese mbi rreziqet e shumta që lidhen me zhvillimin e sistemeve të fuqishme të inteligjencës artificiale dhe si mund t’i kundërveprojmë ato.

foto

Unë besoj se po hyjmë në një rit kalimi, të trazuar dhe të pashmangshëm, i cili do të vërë në provë se kush jemi si specie, shkroi Amodei në hyrje të esesë së tij prej 38 faqesh. Njerëzimit do t’i jepet një pushtet pothuajse i paimagjinueshëm dhe është thellësisht e paqartë nëse sistemet tona shoqërore, politike dhe teknologjike kanë pjekurinë për ta përdorur atë.

foto

Ai nuk është fans i “doomerizmit” të inteligjencës artificiale, i cili beson se arriti nivelet kulmore midis viteve 2023 dhe 2024 dhe shpesh ishte i mbushur me gjuhë të ekzagjeruar “që të kujton fenë ose fanta-shkencën”. Por kalimi më i fundit drejt një narrative më të fokusuar në mundësitë e inteligjencës artificiale, thotë ai, injoron shumë nga kërcënimet që inteligjenca artificiale me siguri do të paraqesë në vitet e ardhshme.

“Ky lëkundje është për të ardhur keq, pasi vetë teknologjia nuk interesohet për atë që është në modë, dhe ne jemi shumë më afër rrezikut të vërtetë në vitin 2026 sesa ishim në vitin 2023”, shkroi ai. Ai beson se duhet të jemi kirurgjikalë në adresimin e rreziqeve, të cilat do të bien mbi kompanitë, aktorët e palëve të treta dhe qeveritë. Këto të fundit, tha ai, duhet të jenë “të matura”, duke siguruar që rregulloret të mos pengojnë mundësitë ekonomike.

Ai shpjegon se çfarë nënkupton me “IA të fuqishme” – makina që janë më të zgjuara se fituesit e Çmimit Nobel, që mund të zgjidhin probleme komplekse matematikore, të shkruajnë romanin e madh amerikan, të qasen në informacion online dhe me të, të kryejnë një numër të madh veprimesh, të japin udhëzime, të këshillojnë, të krijojnë video dhe të drejtojnë eksperimente. Do t’i kryejë këto detyra me “një aftësi që tejkalon atë të njerëzve më të aftë në botë”.

Ai nuk është i sigurt se kur do ta arrijmë këtë arritje teknologjike – ndoshta jemi një ose dy vjet larg, ndoshta më gjatë, shkruan ai, duke e quajtur atë ndoshta “kërcënimin më serioz të sigurisë kombëtare me të cilin jemi përballur në një shekull, ndoshta ndonjëherë”.

Pjesa më e madhe e esesë është vlerësimi i tij i rrezikut, duke filluar me “autonominë” e IA-së – IA e pamatur, ndoshta mashtruese, e paqëndrueshme. Për ta kundërshtuar këtë, ai beson se IA e përparuar duhet të zhvillohet me një “kushtetuta”, duke iu referuar modeleve të Anthropic, të cilat ai thotë se janë ndërtuar me një sërë “vlerash dhe parimesh që modeli i lexon dhe i mban në mendje kur kryen çdo detyrë trajnimi”.

Problemet, thotë ai, duhet të diagnostikohen dhe modelet duhet të monitorohen vazhdimisht, ndërsa kompanitë i ndajnë gjetjet e tyre publikisht dhe rreziqet miratohen me ligj: “Pikëpamja e Anthropic ka qenë se vendi i duhur për të filluar është me legjislacionin për transparencën, i cili në thelb përpiqet të kërkojë që çdo kompani e inteligjencës artificiale të angazhohet në praktikat e transparencës.”

Pasi të jemi të sigurt se “gjenitë e inteligjencës artificiale” nuk do të “bëhen të pabesë dhe të mbizotërojnë njerëzimin”, shkroi ai, duhet të përqendrohemi në keqpërdorimin e saj nga njerëzit. Të kesh një botë plot me individë me një “gjeni superinteligjent në xhep”, mund të jetë problematike, thotë ai. Ai ka veçanërisht frikë nga aftësia për të zhvilluar armë biologjike.

“Ne besojmë se modelet ka të ngjarë të jenë duke iu afruar pikës ku, pa masa mbrojtëse, ato mund të jenë të dobishme në mundësimin e dikujt me një diplomë në STEM, por jo konkretisht një diplomë në biologji, që të kalojë nëpër të gjithë procesin e prodhimit të një arme biologjike”, shkroi ai.

Zgjidhjet e tij janë shumë të njëjta me ato për rreziqet e autonomisë së inteligjencës artificiale: një kushtetutë, transparencë, diagnozë, monitorim dhe legjislacion, por me fokus në marrëveshjet ndërkombëtare.

Ai pranon se shtetet mashtruese mund të jenë më të vështira për t’u menaxhuar. Ai imagjinon një “tufër prej miliona ose miliarda dronësh të armatosur plotësisht të automatizuar, të kontrolluar lokalisht nga një inteligjencë artificiale e fuqishme dhe të koordinuar strategjikisht në të gjithë botën nga një inteligjencë artificiale edhe më e fuqishme”. Me këtë mund të vijë mbikëqyrja dhe propaganda oruelliane e inteligjencës artificiale, një inteligjencë artificiale gjeniale që do të zhvillojë strategji gjeopolitike për vendet jodemokratike.

Si mbrojtje, ai beson se mosndihma ndaj vendeve të tilla autoritare për të zhvilluar inteligjencën artificiale është një pikënisje e mirë. “Kina është disa vjet prapa SHBA-së në aftësinë e saj për të prodhuar çipa kufitarë në sasi, dhe periudha kritike për ndërtimin e vendit të gjenive në një qendër të dhënash ka shumë të ngjarë të jetë brenda atyre viteve të ardhshme”, shkruan ai, duke shtuar se “nuk ka arsye për t’i dhënë një shtysë gjigante industrisë së saj të inteligjencës artificiale gjatë kësaj periudhe kritike”.

Brenda demokracive, thotë ai, ekziston gjithashtu potencial për abuzim me inteligjencën artificiale të fuqishme. Ai mbështet “legjislacionin e fokusuar në liritë civile” për të luftuar abuzime të tilla, si dhe një qasje shumë të kujdesshme ndaj zhvillimit të armëve autonome ose teknologjisë së mbikëqyrjes. “E vetmja konstante është se ne duhet të kërkojmë llogaridhënie, norma dhe mbrojtje për të gjithë, edhe pse fuqizojmë aktorët ‘e mirë’ për të mbajtur nën kontroll aktorët ‘e këqij'”, shkroi ai.

Amodei e quan rritjen ekonomike një “shpatë me dy tehe”, ku ekonomitë do të zgjerohen së bashku me “zhvendosjen e tregut të punës dhe përqendrimin e fuqisë ekonomike”. Ai parashikon që brenda një deri në pesë vjetësh, gjysma e të gjitha vendeve të punës në nivel fillestar të punonjësve do të zhduken.

Zgjidhjet: Kompanitë e inteligjencës artificiale duhet të analizojnë se si modelet e tyre i prishin industritë, ndërsa kompanitë mund të duhet të “ricaktojnë punonjësit… për të shmangur nevojën për pushime nga puna”. Individët e pasur, beson ai, duhet të bëjnë pjesën e tyre për të ndihmuar me filantropinë private kuptimplote, ndërsa një “taksim progresiv” mbi fituesit mund të ndihmojë në kundërbalancimin e niveleve ekstreme të pabarazisë.

Në fund të fundit, inteligjenca artificiale do të jetë në gjendje të bëjë gjithçka, dhe ne duhet të përballemi me këtë, përfundoi ai atë pjesë të veçantë.

Pasi të kemi ndërtuar këto mbrojtje kundër ndërprerjeve të inteligjencës artificiale, ai beson se, ndërsa njerëzimi përparon, do të ketë “të panjohura të panjohura”. Mund ta rrisim shumë jetëgjatësinë e njeriut, thotë ai, ose një numër i madh njerëzish do të preken nga ” psikoza e inteligjencës artificiale “. Inteligjenca artificiale mund të shpikë fe të reja, dhe bashkë me të, të gjitha problemet që lidhen me fenë, skenarë që ai i krahason me shfaqjen televizive distopike “Black Mirror”.

Ai gjithashtu pyet: A do të ndiejnë njerëzit se kanë një qëllim në një botë ku inteligjenca artificiale bën pjesën më të madhe të punës, një botë ku njerëzit nuk lulëzojnë më në kuptimin aristotelian? Për këtë dhe të panjohurat e tjera të panjohura, ai nuk ofron asnjë mbrojtje. Këta janë lumenj që do të na duhet t’i kalojmë kur të vijë koha.

Por, ndërsa kompanitë përpiqen të fitojnë ndoshta triliona dollarë, ndërsa qeveritë kërkojnë të forcojnë fuqinë gjeopolitike dhe ushtritë gjejnë mënyra gjithnjë e më të reja për të shfarosur armiqtë e tyre, Amodei flet për një “kurth”: “IA është aq e fuqishme, një çmim kaq i shkëlqyer, sa është shumë e vështirë për qytetërimin njerëzor t’i vendosë ndonjë kufizim.”

Ai është në thelb optimist se do ta kapërcejmë këtë, por do të thoshte se: Ai është një nga njerëzit që do të korrë frytet ndërsa kompania e tij ndërton bazën e saj masive të përdoruesve. Zgjidhjet që ai ofron janë të lavdërueshme, por udhëheqësit e kompanive të inteligjencës artificiale mund të mos jenë më të mirët për t’u mbështetur.