Kalifornia dobëson projektligjin për të parandaluar fatkeqësitë e AI përpara votimit përfundimtar duke marrë këshilla nga Anthropic

foto

Projektligji i Kalifornisë për të parandaluar fatkeqësitë e AI, SB 1047, është përballur me kundërshtime të konsiderueshme nga shumë parti në Silicon Valley. Sot, ligjvënësit e Kalifornisë u përkulën pak ndaj këtij presioni, duke shtuar disa amendamente të sugjeruara nga firma e AI Anthropic dhe kundërshtarë të tjerë.

foto

Të enjten, projektligji kaloi nga Komiteti i Ndarjeve të Kalifornisë, një hap i madh drejt shndërrimit në ligj, me disa ndryshime kyçe, tha zyra e senatorit Wiener për TechCrunch.

foto

“Ne pranuam një numër ndryshimesh shumë të arsyeshme të propozuara dhe besoj se kemi adresuar shqetësimet thelbësore të shprehura nga Anthropic dhe shumë të tjerë në industri,” tha senatori Wiener në një deklaratë për TechCrunch. “Këto ndryshime bazohen në ndryshime të rëndësishme në SB 1047 që bëra më parë për të përshtatur nevojat unike të komunitetit me burim të hapur, i cili është një burim i rëndësishëm inovacioni.”

SB 1047 ende synon të parandalojë sistemet e mëdha të AI që të vrasin shumë njerëz, ose të shkaktojnë ngjarje të sigurisë kibernetike që kushtojnë mbi 500 milionë dollarë, duke i mbajtur përgjegjës zhvilluesit. Megjithatë, projektligji tani i jep qeverisë së Kalifornisë më pak fuqi për të kërkuar llogari nga laboratorët e AI.

Më e rëndësishmja, projektligji nuk i lejon më Prokurorit të Përgjithshëm të Kalifornisë të padisë kompanitë e AI për praktika të pakujdesshme të sigurisë përpara se të ndodhë një ngjarje katastrofike. Ky ishte një sugjerim nga Anthropic.

Në vend të kësaj, prokurori i përgjithshëm i Kalifornisë mund të kërkojë lehtësim urgjent, duke i kërkuar një kompanie të ndërpresë një operacion të caktuar që e sheh të rrezikshëm dhe mund të padisë ende një zhvillues të AI nëse modeli i tij shkakton një ngjarje katastrofike.

Më tej, SB 1047 nuk krijon më Divizionin e Modelit Kufitar (FMD), një agjenci e re qeveritare e përfshirë më parë në projektligj. Megjithatë, projektligji ende krijon Bordin e Modeleve Kufitare – thelbin e FMD – dhe i vendos ato brenda Agjencisë ekzistuese të Operacioneve Qeveritare. Në fakt, bordi është më i madh tani, me nëntë persona në vend të pesë. Bordi i Modeleve Kufitare do të caktojë ende kufijtë e llogaritjes për modelet e mbuluara, do të nxjerrë udhëzime për sigurinë dhe do të nxjerrë rregullore për auditorët.

Senatori Wiener gjithashtu ndryshoi SB 1047 në mënyrë që laboratorët e AI të mos kenë më nevojë të dorëzojnë certifikata të rezultateve të testit të sigurisë “nën dënimin e dëshmisë së rreme”. Tani, këtyre laboratorëve të AI thjesht u kërkohet të paraqesin “deklarata” publike që përshkruajnë praktikat e tyre të sigurisë, por ligji nuk imponon më asnjë përgjegjësi penale.

SB 1047 gjithashtu tani përfshin një gjuhë më të butë rreth mënyrës sesi zhvilluesit sigurojnë që modelet e AI janë të sigurta. Tani, projektligji kërkon që zhvilluesit të ofrojnë “kujdes të arsyeshëm” që modelet e AI nuk paraqesin rrezik të konsiderueshëm për të shkaktuar katastrofë, në vend të “sigurisë së arsyeshme” që kërkohej më parë.

Më tej, ligjvënësit shtuan një mbrojtje për modelet e akorduara me burim të hapur. Nëse dikush shpenzon më pak se 10 milionë dollarë për rregullimin e një modeli të mbuluar, ai nuk konsiderohet në mënyrë të qartë si zhvillues nga SB 1047. Përgjegjësia do të jetë ende mbi zhvilluesin origjinal, më të madh të modelit.

Ndërsa projektligji është përballur me kundërshtime të konsiderueshme nga kongresmenët amerikanë, studiuesit e njohur të AI, Big Tech dhe kapitalistët sipërmarrës, projektligji ka kaluar në legjislaturën e Kalifornisë me lehtësi relative. Këto ndryshime ka të ngjarë të qetësojnë kundërshtarët e SB 1047 dhe t’i paraqesin Guvernatorit Newsom një projektligj më pak të diskutueshëm që ai mund ta nënshkruajë në ligj pa humbur mbështetjen nga industria e AI.

Ndërsa Newsom nuk ka komentuar publikisht për SB 1047, ai më parë ka treguar angazhimin e tij ndaj inovacionit të AI të Kalifornisë.

Anthropic i thotë TechCrunch se po shqyrton ndryshimet e SB 1047 përpara se të marrë një pozicion. Jo të gjitha amendamentet e sugjeruara të Anthropic u miratuan nga Senatori Wiener.

“Qëllimi i SB 1047 është – dhe ka qenë gjithmonë – të avancojë sigurinë e AI, duke lejuar ende risi në të gjithë ekosistemin,” tha Nathan Calvin, këshilltar i lartë i politikave për Fondin e Veprimit të Sigurisë së AI. “Amendamentet e reja do ta mbështesin këtë qëllim.”

Thënë kështu, këto ndryshime nuk kanë gjasa të qetësojnë kritikët e vendosur të SB 1047. Ndërsa projektligji është dukshëm më i dobët se përpara këtyre ndryshimeve, SB 1047 ende i mban zhvilluesit përgjegjës për rreziqet e modeleve të tyre të AI. Ky fakt thelbësor për SB 1047 nuk mbështetet në mënyrë universale dhe këto ndryshime bëjnë pak për ta trajtuar atë.

“Ndryshimet janë veshje të dritareve,” tha partneri i përgjithshëm i Andreessen Horowitz, Martin Casado në një postim në Twitter. “Ata nuk adresojnë çështjet reale apo kritikat e projektligjit.”

Në fakt, pak çaste pasi SB 1047 kaloi të enjten, tetë anëtarë të Kongresit të Shteteve të Bashkuara që përfaqësonin Kaliforninë shkruan një letër duke i kërkuar Guvernatorit Newsom të vërë veton ndaj SB 1047. Ata shkruajnë se projektligji “nuk do të ishte i mirë për shtetin tonë, për komunitetin fillestar, për zhvillim shkencor, apo edhe për mbrojtje kundër dëmeve të mundshme që lidhen me zhvillimin e AI.”

SB 1047 tani është drejtuar në katin e Asamblesë së Kalifornisë për një votim përfundimtar. Nëse kalon atje, do të duhet t’i referohet Senatit të Kalifornisë për votim për shkak të këtyre ndryshimeve të fundit. Nëse i kalon të dyja, do të shkojë në tryezën e guvernatorit Newsom, ku mund të vihet veto ose të nënshkruhet në ligj.