Elon Musk dështon të bllokojë ligjin e California për zbulimin e të dhënave, për të cilin ai druhet se do të shkatërrojë xAI
xAI i Elon Musk ka humbur përpjekjen e saj për një urdhër paraprak gjyqësor që do ta kishte bllokuar përkohësisht Kaliforninë nga zbatimi i një ligji që u kërkon firmave të IA-së të ndajnë publikisht informacion në lidhje me të dhënat e tyre të trajnimit.

xAI ishte përpjekur të argumentonte se Projektligji i Asamblesë së Kalifornisë i vitit 2013 (AB 2013) i detyroi firmat e inteligjencës artificiale të zbulonin sekrete tregtare të ruajtura me kujdes.

Ligji kërkon që zhvilluesit e inteligjencës artificiale, modelet e të cilëve janë të arritshme në shtet, të shpjegojnë qartë se cilat burime të të dhënave janë përdorur për të trajnuar modelet, kur janë mbledhur të dhënat, nëse mbledhja është në vazhdim dhe nëse të dhënat përfshijnë të dhëna të mbrojtura nga të drejtat e autorit, markat tregtare ose patentat. Zbulimet do të sqaronin gjithashtu nëse kompanitë kanë licencuar ose blerë të dhëna trajnimi dhe nëse të dhënat e trajnimit përfshijnë ndonjë informacion personal. Gjithashtu do t’i ndihmonte konsumatorët të vlerësonin se sa të dhëna sintetike janë përdorur për të trajnuar modelin, gjë që mund të shërbejë si një masë e cilësisë.
Megjithatë, ky informacion është pikërisht ajo që e bën xAI të vlefshëm, me burimin e saj intensiv të të dhënave që supozohet se e dallon atë nga rivalët e saj më të mëdhenj, argumentoi xAI. Lejimi i zbatimit të ligjit mund të jetë “ekonomikisht shkatërrues” për xAI, argumentoi kompania e Musk, duke e ulur në mënyrë efektive “vlerën e sekreteve tregtare të xAI në zero”, tha padia e xAI. Për më tepër, këmbënguli xAI, këto zbulime “nuk mund të jenë të dobishme për konsumatorët”, ndërsa supozohet se paraqesin një rrezik real për shkatërrimin e të gjithë industrisë së IA-së.
Në mënyrë specifike, xAI argumentoi se burimet e të dhënave, madhësitë e të dhënave dhe metodat e pastrimit ishin të gjitha sekrete tregtare.
“Nëse konkurrentët mund të shihnin burimet e të gjitha të dhënave të xAI ose edhe madhësinë e të dhënave të saj, konkurrentët mund të vlerësonin si të dhënat që ka xAI ashtu edhe sa u mungojnë atyre”, argumentoi xAI. Në një hipotezë, xAI spekuloi se “nëse OpenAI (një kompani tjetër kryesore e IA-së) do të zbulonte se xAI po përdorte një të dhënë të rëndësishme për të trajnuar modelet e saj që OpenAI nuk po e përdorte, OpenAI pothuajse me siguri do ta merrte atë të dhënë për të trajnuar modelin e vet dhe anasjelltas”.
Megjithatë, në një urdhër të lëshuar të mërkurën, gjykatësi i distriktit amerikan, Jesus Bernal, tha se xAI nuk arriti të tregonte se ligji i Kalifornisë, i cili hyri në fuqi në janar, kërkonte që kompania të zbulonte ndonjë sekret tregtar.
Problemi më i madh i xAI ishte të qenit shumë i paqartë në lidhje me dëmet që do të përballej nëse ligji nuk do të ndalohej, tha gjykatësi. Në vend që të shpjegonte pse zbulimet mund ta dëmtonin drejtpërdrejt xAI-në, kompania ofroi vetëm “një sërë akuzash të përgjithshme në lidhje me rëndësinë e të dhënave në zhvillimin e modeleve të IA-së dhe pse ato mbahen sekrete”, shkroi Bernal, duke e përshkruar X si tregëtar me “abstraksione dhe hipoteza të shpeshta”.
Ai e mohoi mocionin e xAI për një urdhër të përkohshëm gjyqësor, ndërsa mbështeti interesin e qeverisë për të ndihmuar publikun të vlerësojë se si janë trajnuar modelet më të fundit të IA-së.
Padia do të vazhdojë, por ndërkohë xAI do të duhet të zbatojë ligjin e Kalifornisë. Kjo mund të bëjë që Musk të ndajë informacione për të cilat nuk do të donte që OpenAI të kishte dijeni, në një kohë kur ai është i përfshirë në disa padi kundër firmës kryesore të IA-së, për të cilën tani pendohet që ka ndihmuar në themelimin e saj.
Edhe pse nuk i jep fund luftës për ta mbajtur OpenAI larg të dhënave të trajnimit të xAI, vendimi i kësaj jave është një tjetër disfatë për Musk, pasi një gjyqtar muajin e kaluar hodhi poshtë një nga paditë e tij kundër OpenAI, duke vendosur se Musk nuk kishte prova se OpenAI kishte vjedhur sekrete tregtare.
Padia e xAI argumentonte se ligji i Kalifornisë ishte jokushtetues, pasi të dhënat mund të konsiderohen sekret tregtar sipas Amendamentit të Pestë. Kompania gjithashtu argumentoi se shteti po përpiqej të rregullonte rezultatet e chatbot-it kontrovers të xAI, Grok, dhe po impononte padrejtësisht fjalime nga xAI, ndërsa përjashtonte firmat e tjera për qëllime sigurie.
Në këtë fazë të procesit gjyqësor, Bernal nuk ishte dakord që xAI mund të dëmtohej në mënyrë të pariparueshme nëse ligji nuk do të ndalohej.
Lidhur me pretendimin e Amendamentit të Pestë, gjykatësi tha se nuk është se të dhënat e trajnimit nuk mund të konsiderohen kurrë sekret tregtar. Është thjesht se xAI “nuk ka identifikuar ndonjë grup të dhënash ose qasje për pastrimin dhe përdorimin e grupeve të të dhënave që është e ndryshme nga konkurrentët e saj në një mënyrë që garanton mbrojtjen e sekretit tregtar”.
“Gjykatës nuk i ka shpëtuar roli i rëndësishëm i të dhënave në trajnimin dhe zhvillimin e IA-së, dhe se, hipotetikisht, të dhënat dhe detajet rreth tyre mund të jenë sekrete tregtare”, shkroi Bernal. Por xAI “nuk ka pretenduar se në të vërtetë përdor të dhëna unike, se ka të dhëna dukshëm më të mëdha ose më të vogla se konkurrentët, ose se i pastron të dhënat e saj në mënyra unike.”
Prandaj, xAI nuk ka gjasa të ketë sukses në bazë të meritave të pretendimit të saj të Amendamentit të Pestë.
E njëjta gjë vlen edhe për argumentet e Amendamentit të Parë. xAI dështoi të tregonte se ligji në mënyrë të papërshtatshme “i detyron zhvilluesit të zbulojnë publikisht burimet e të dhënave të tyre në një përpjekje për të identifikuar atë që Kalifornia i konsideron si ‘të dhëna të mbushura me paragjykime të nënkuptuara dhe të qarta’”, shkroi Bernal.
Për xAI-në, dukej sikur shteti po përpiqej të përdorte ligjin për të ndikuar në rezultatet e chatbot-it të saj Grok, argumentoi kompania, i cili duhet të mbrohet nga fjala komerciale.
Gjatë vitit të kaluar, Grok ka tërhequr gjithnjë e më shumë vëmendjen e publikut global për deklaratat e tij antisemite dhe për gjenerimin e imazheve intime jo konsensuale (NCII ) dhe materialeve të abuzimit seksual me fëmijë (CSAM). Por, pavarësisht këtyre skandaleve, të cilat nxitën një hetim në Kaliforni, Bernal kundërshtoi xAI, duke thënë se Kalifornia nuk dukej se po përpiqej të rregullonte rezultatet kontraverse ose të anshme, siç kishte frikë xAI.
“Asgjë në gjuhën e statutit nuk sugjeron që Kalifornia po përpiqet të ndikojë në rezultatet e modeleve të Paditësit duke kërkuar zbulimin e të dhënave”, shkroi Bernal.
Duke iu drejtuar shqetësimeve të tjera të xAI-së në lidhje me fjalimin, ai vuri në dukje se “statuti nuk i kërkon në mënyrë funksionale Paditësit të ndajë mendimet e tij mbi rolin e disa grupeve të të dhënave në zhvillimin e modelit të IA-së ose të bëjë deklarata ideologjike në lidhje me dobinë e grupeve të ndryshme të të dhënave ose metodave të pastrimit”.
“Asnjë pjesë e statutit nuk tregon ndonjë plan për të rregulluar ose censuruar modelet bazuar në grupet e të dhënave me të cilat ato janë zhvilluar dhe trajnuar”, shkroi Bernal.
Ndoshta më frustruese për xAI, ndërsa vazhdon të luftojë për të bllokuar ligjin, është fakti që Bernal gjithashtu kundërshtoi faktin që publiku nuk kishte interes në zbulimin e të dhënave të trajnimit.
“Është e vështirë të sugjerohet në thelb se asnjë konsumator nuk është i aftë të bëjë një vlerësim të dobishëm të modeleve të inteligjencës artificiale të Paditësit duke shqyrtuar informacionin në lidhje me të dhënat e përdorura për t’i trajnuar ato dhe se për këtë arsye nuk ka ndonjë interes të konsiderueshëm qeveritar të avancuar nga ky statut zbulimi”, shkroi Bernal.
Ai vuri në dukje se ligji thjesht kërkon që kompanitë të njoftojnë publikun rreth informacionit që mund të përdoret në mënyrë të realizueshme për të peshuar nëse duan të përdorin një model mbi një tjetër.
Asgjë në lidhje me zbulimet e kërkuara nuk është në thelb politike, sugjeroi gjykatësi, megjithëse disa konsumatorë mund të zgjedhin ose shmangin modele të caktuara me paragjykime të perceptuara politike. Si shembull, Bernal shprehu mendimin se konsumatorët mund të duan të dinë “nëse të dhëna të caktuara mjekësore ose informacione shkencore janë përdorur për të trajnuar një model” për të vendosur nëse mund t’i besojnë modelit “që të jetë mjaftueshëm i trajnuar në mënyrë gjithëpërfshirëse dhe i besueshëm për qëllimet e konsumatorit”.
“Në tregun e modeleve të IA-së, AB 2013 kërkon që zhvilluesit e modeleve të IA-së të japin informacion në lidhje me të dhënat e trajnimit, duke i dhënë kështu publikut informacionin e nevojshëm për të përcaktuar nëse ata do të përdorin – ose do të mbështeten në informacionin e prodhuar nga – modeli i Paditësit në krahasim me opsionet e tjera në treg”, shkroi Bernal.
Duke ecur përpara, xAI duket se do të përballet me një betejë të vështirë për ta fituar këtë betejë. Do të duhet të mbledhë më shumë prova për të demonstruar se të dhënat e saj ose metodat e pastrimit janë mjaftueshëm unike për t’u konsideruar sekrete tregtare që i japin kompanisë një avantazh konkurrues.
Gjithashtu, ka të ngjarë të duhet të thellojë argumentet e saj se konsumatorët nuk interesohen për zbulimet dhe se qeveria nuk ka eksploruar alternativa më pak të rënda që mund të “arrijnë qëllimin e transparencës për konsumatorët”, sugjeroi Bernal.
Një rrugë e mundshme drejt një fitoreje mund të jetë vërtetimi se ligji i Kalifornisë është aq i paqartë saqë potencialisht e vë xAI-në përgjegjëse për zbulimin e të dhënave të trajnimit të klientëve të saj për licencat individuale Grok. Por Bernal theksoi se xAI “duhet të përballet me një enigmë të tillë – në vend që të ngrejë një çështje të mundshme abstrakte midis zhvilluesve të sistemeve të IA-së – që Gjykata të marrë një vendim për këtë çështje”.
xAI nuk iu përgjigj kërkesës së Ars për të komentuar.
Një zëdhënës i Departamentit të Drejtësisë të Kalifornisë i tha Reuters se departamenti “feston këtë fitore të rëndësishme dhe mbetet i përkushtuar për të vazhduar mbrojtjen tonë” të ligjit.
