Informatori i OpenAI, Suchir Balaji, u gjet i vdekur mes përplasjeve për të drejtat e autorit
Vdekja e papritur e Suchir Balaji, një kritik i shquar i OpenAI, tronditi botën e teknologjisë mes diskutimeve të nxehta mbi AI dhe ligjet e të drejtave të autorit. Balaji kishte ekspozuar sfida të thella etike dhe ligjore vetëm disa muaj para vdekjes së tij.
Ai kritikoi në mënyrë specifike se si kompani si OpenAI mbledhin sasi të mëdha të dhënash nga interneti për të trajnuar modelet e tyre të AI, duke vënë në pikëpyetje ligjshmërinë dhe etikën e këtyre praktikave sipas ligjeve aktuale të të drejtave të autorit.
Suchir Balaji ishte ndër arkitektët kryesorë pas një prej teknologjive më transformuese të shekullit të 21-të, ChatGPT. Vdekja tragjike e 26-vjeçares, një ish-anëtar i ekipit të OpenAI dhe kritik i hapur i praktikave të kompanisë, ka tronditur botën e teknologjisë.
Balaji, i cili kishte qenë i zëshëm për shqetësimet e tij për përdorimin etik të të dhënave nga kompanitë e AI, vdiq nga vetëvrasja në apartamentin e tij në San Francisko më 26 nëntor. Autoritetet kanë konfirmuar mënyrën e vdekjes dhe aktualisht nuk ka asnjë provë për lojë të keqe.
Balaji, një ish-punonjës i OpenAI që ka punuar me kompaninë për më shumë se katër vjet, u largua nga kompania duke përmendur shqetësimet se si gjigandi i AI dyshohet se përdori të dhëna të mbrojtura nga të drejtat e autorit pa pëlqimin e duhur. Në një intervistë me The New York Times në tetor, ai foli për këtë.
Ai u largua nga OpenAI në gusht si pasojë e këtyre shqetësimeve. Edhe pas dorëheqjes, Balaji vazhdoi të ishte i zëshëm për këtë çështje. Veçanërisht, vetëm një ditë para se të vdiste, një dosje gjyqësore thuhet se quhet Balaji në një padi për të drejtën e autorit të ngritur kundër startup-it. Si pjesë e një kompromisi me mirëbesim, OpenAI thuhet se do të kontrollonte dosjen e kujdestarisë së Balaji në lidhje me shqetësimet e të drejtave të autorit që ai kishte shprehur.
Duke folur për The New York Times, ai shpjegoi se si sistemet si GPT-4 mësojnë duke bërë kopje të plota të të dhënave mbi të cilat janë trajnuar. Shqetësimet e Balaji u detajuan në një ese ku ai artikuloi kompleksitetin e proceseve të trajnimit të AI.
“Ndërsa modelet gjeneruese rrallë prodhojnë rezultate që janë thelbësisht të ngjashme me ndonjë nga inputet e tyre të trajnimit, procesi i trajnimit të një modeli gjenerues përfshin bërjen e kopjeve të të dhënave me të drejtë autori,” shkroi ai.
“Nëse këto kopje janë të paautorizuara, kjo mund të konsiderohet si shkelje e të drejtës së autorit, në varësi të faktit nëse përdorimi specifik i modelit kualifikohet apo jo si ‘përdorim i drejtë’. Për shkak se përdorimi i drejtë përcaktohet rast pas rasti, nuk mund të bëhet asnjë deklaratë e gjerë se kur AI gjenerues kualifikohet për përdorim të drejtë.”
“Prodhimet nuk janë kopje të sakta të inputeve, por ato nuk janë gjithashtu në thelb të reja,” tha Balaji.
Teknologu i ri vuri në dukje edhe një çështje më të madhe: ndërsa teknologjitë e AI zëvendësojnë gjithnjë e më shumë shërbimet ekzistuese të internetit, ato shpesh gjenerojnë informacion të rremë ose ndonjëherë edhe plotësisht të sajuar, një fenomen që studiuesit e quajnë “halucinacione”. Interneti, tha ai, po ndryshon për keq.
OpenAI dhe Microsoft po përballen me padi të ndryshme nga gazetat dhe botuesit e mediave, duke përfshirë The New York Times, të cilët kanë akuzuar startup-in gjenerues të AI për shkelje të ligjit të të drejtave të autorit. Balaji kundërshtoi të dhënat mbi të cilat OpenAI trajnoi modelet e saj.
Ai foli për shqetësimet e tij në postimin e fundit X në tetor dhe një postim në blog në të njëjtin muaj. Në artikullin e tij të tetorit X, Balaji u bëri thirrje studiuesve të mësimit të makinerive të mësojnë më shumë rreth rregulloreve të të drejtave të autorit.
Ai vuri në dukje se precedentët e përmendur shpesh, si rasti i Google Books, nuk mund të vërtetonin plotësisht pohimet e “përdorimit të drejtë” të bizneseve gjeneruese të AI.
Pavarësisht kritikave të tij, ai sqaroi se opinionet e tij drejtoheshin në fushën më të madhe të AI gjeneruese dhe jo vetëm në OpenAI. Balaji pohoi gjithashtu se New York Times nuk iu drejtua atij, por ishte ai që kishte arritur tek ata pasi mendonte se kishte “një perspektivë interesante”.
Vështrimet e Balaji theksojnë shqetësimet në rritje midis zhvilluesve të AI dhe mbajtësve të të drejtave të autorit, që është se nevoja për të dhëna të gjera për të trajnuar modele të sofistikuara mund të bie ndesh me të drejtat e krijuesve të përmbajtjes.
Vdekja e tij tragjike, e cilësuar si një vetëvrasje nga autoritetet, tërheq vëmendjen ndaj debateve dhe presioneve intensive që vijnë me lundrimin në fushën komplekse të etikës dhe ligjshmërisë së AI.
Komunikimi i fundit i Balaji zbuloi shqetësimet e tij të thella në lidhje me zbatueshmërinë e mbrojtjes ‘përdorim të drejtë’ në teknologjitë gjeneruese të AI.
Në postimin e tij të fundit X, i cili u rishfaq pas vdekjes së tij, ai reflektoi: “Fillimisht nuk dija shumë për të drejtën e autorit, përdorimin e drejtë etj., por u bë kurioz pasi pashë të gjitha paditë e ngritura kundër kompanive GenAI. Kur u përpoqa ta kuptoja më mirë çështjen, përfundimisht arrita në përfundimin se përdorimi i drejtë duket si një mbrojtje mjaft e pabesueshme për shumë produkte gjeneruese të AI, për arsyen themelore se ato mund të krijojnë zëvendësues që konkurrojnë me të dhënat që ata janë trajnuar. më.”
“Unë kam shkruar arsyet më të detajuara përse e besoj këtë në postimin tim. Natyrisht, unë nuk jam avokat, por ende ndjej se është e rëndësishme edhe për jo-avokatët që ta kuptojnë ligjin – si shkronjën e tij, ashtu edhe pse është në të vërtetë aty në radhë të parë,” përfundoi Balaji.
OpenAI shprehu pikëllimin e tyre për vdekjen e Balaji, me një zëdhënës që tha për TechCrunch, “Jemi të shkatërruar kur mësuam për këtë lajm tepër të trishtuar sot dhe zemrat tona shkojnë me të dashurit e Suchir gjatë kësaj kohe të vështirë.”