Përdoruesit e Anthropic përballen me një zgjedhje të re – të heqin dorë ose të ndajnë bisedat e tyre për trajnimin e AI-së

Anthropic po bën disa ndryshime të mëdha në mënyrën se si i trajton të dhënat e përdoruesve, duke kërkuar që të gjithë përdoruesit e Claude të vendosin deri më 28 shtator nëse duan që bisedat e tyre të përdoren për të trajnuar modelet e inteligjencës artificiale. Ndërsa kompania na drejtoi te postimi i saj në blog mbi ndryshimet e politikave kur u pyet se çfarë e nxiti këtë veprim, ne kemi krijuar disa teori tonat.

Por së pari, çfarë po ndryshon: Më parë, Anthropic nuk përdorte të dhënat e bisedave të konsumatorëve për trajnimin e modeleve. Tani, kompania dëshiron të trajnojë sistemet e saj të inteligjencës artificiale mbi bisedat e përdoruesve dhe seancat e kodimit, dhe tha se po e zgjat ruajtjen e të dhënave në pesë vjet për ata që nuk zgjedhin të mos e bëjnë këtë.
Ky është një përditësim masiv. Më parë, përdoruesve të produkteve të konsumit të Anthropic u ishte thënë se kërkesat dhe rezultatet e bisedave të tyre do të fshiheshin automatikisht nga backend-i i Anthropic brenda 30 ditëve “përveç nëse kërkohet ligjërisht ose nga politikat që t’i mbajnë ato më gjatë” ose nëse të dhënat e tyre raportoheshin si shkelje të politikave të saj, në të cilin rast të dhënat e dhëna dhe rezultatet e një përdoruesi mund të ruheshin deri në dy vjet.
Me konsumator, nënkuptojmë që politikat e reja vlejnë për përdoruesit e Claude Free, Pro dhe Max, duke përfshirë ata që përdorin Claude Code. Klientët e biznesit që përdorin Claude Gov, Claude for Work, Claude for Education ose qasjen në API nuk do të preken, dhe kjo është mënyra se si OpenAI mbron në mënyrë të ngjashme klientët e ndërmarrjeve nga politikat e trajnimit të të dhënave.
Pse po ndodh kjo? Në atë postim rreth përditësimit, Anthropic i trajton ndryshimet rreth zgjedhjes së përdoruesit, duke thënë se duke mos zgjedhur të mos përfshihen, përdoruesit do të “na ndihmojnë të përmirësojmë sigurinë e modelit, duke i bërë sistemet tona për zbulimin e përmbajtjes së dëmshme më të sakta dhe më pak të prirura të sinjalizojnë biseda të padëmshme”. Përdoruesit do të “ndihmojnë gjithashtu modelet e ardhshme të Claude të përmirësohen në aftësi si kodimi, analiza dhe arsyetimi, duke çuar në fund të fundit në modele më të mira për të gjithë përdoruesit”.
Shkurt, na ndihmoni të ju ndihmojmë. Por e vërteta e plotë është ndoshta pak më pak altruiste.
Ashtu si çdo kompani tjetër e madhe e modeleve gjuhësore, Anthropic ka nevojë për të dhëna më shumë sesa për njerëz që të kenë ndjenja të paqarta rreth markës së saj. Trajnimi i modeleve të IA-së kërkon sasi të mëdha të dhënash bisedore me cilësi të lartë, dhe qasja në miliona ndërveprime të Claude duhet të ofrojë pikërisht llojin e përmbajtjes së botës reale që mund të përmirësojë pozicionimin konkurrues të Anthropic kundrejt rivalëve si OpenAI dhe Google.
Përtej presioneve konkurruese të zhvillimit të inteligjencës artificiale, ndryshimet duket se pasqyrojnë gjithashtu ndryshime më të gjera të industrisë në politikat e të dhënave, pasi kompani si Anthropic dhe OpenAI përballen me një shqyrtim gjithnjë e më të madh mbi praktikat e tyre të ruajtjes së të dhënave. OpenAI, për shembull, aktualisht po lufton kundër një urdhri gjykate që e detyron kompaninë të ruajë të gjitha bisedat e konsumatorëve në ChatGPT për një kohë të pacaktuar, duke përfshirë edhe bisedat e fshira, për shkak të një padie të ngritur nga The New York Times dhe botues të tjerë.
Në qershor, drejtori operativ i OpenAI, Brad Lightcap, e quajti këtë “një kërkesë gjithëpërfshirëse dhe të panevojshme ” që “bie ndesh në thelb me angazhimet për privatësinë që u kemi bërë përdoruesve tanë”. Urdhri i gjykatës prek përdoruesit e ChatGPT Free, Plus, Pro dhe Team, megjithëse klientët e ndërmarrjeve dhe ata me marrëveshje për Mbajtje Zero të të Dhënave janë ende të mbrojtur.
Ajo që është alarmante është se sa shumë konfuzion po krijojnë të gjitha këto politika përdorimi në ndryshim për përdoruesit, shumë prej të cilëve mbeten të pavetëdijshëm për to.
Për të qenë i drejtë, gjithçka po ecën me shpejtësi tani, kështu që ndërsa teknologjia ndryshon, politikat e privatësisë janë të destinuara të ndryshojnë. Por shumë nga këto ndryshime janë mjaft gjithëpërfshirëse dhe përmenden vetëm kalimthi mes lajmeve të tjera të kompanive. (Nuk do të mendonit se ndryshimet e politikave të së martës për përdoruesit e Anthropic ishin lajme shumë të mëdha bazuar në vendin ku kompania e vendosi këtë përditësim në faqen e saj të shtypit.)

Por shumë përdorues nuk e kuptojnë se udhëzimet për të cilat kanë rënë dakord kanë ndryshuar, sepse dizajni praktikisht e garanton këtë. Shumica e përdoruesve të ChatGPT vazhdojnë të klikojnë mbi butonat “fshij” që teknikisht nuk po fshijnë asgjë. Ndërkohë, zbatimi i politikës së re nga Anthropic ndjek një model të njohur.
Si ndodh kjo? Përdoruesit e rinj do të zgjedhin preferencën e tyre gjatë regjistrimit, por përdoruesit ekzistues do të përballen me një dritare me “Përditësime të Kushteve dhe Politikave të Konsumatorit” me tekst të madh dhe një buton të zi të dukshëm “Pranoj” me një çelës shumë më të vogël për lejet e trajnimit më poshtë me shkronja më të vogla – dhe të vendosur automatikisht në “Aktiv”.
Siç u vu re më herët sot nga Shkence.info, dizajni ngre shqetësime se përdoruesit mund të klikojnë shpejt “Pranoj” pa e vënë re se po bien dakord për ndarjen e të dhënave.
Ndërkohë, rreziqet për ndërgjegjësimin e përdoruesve nuk mund të jenë më të larta. Ekspertët e privatësisë kanë paralajmëruar prej kohësh se kompleksiteti që rrethon IA-në e bën pëlqimin kuptimplotë të përdoruesit pothuajse të paarritshëm. Nën administratën e Biden, Komisioni Federal i Tregtisë madje ndërhyri, duke paralajmëruar se kompanitë e IA-së rrezikojnë veprime zbatuese nëse angazhohen në “ndryshimin fshehurazi të kushteve të shërbimit ose politikës së privatësisë, ose fshehjen e një zbulimi pas hiperlidhjeve, në gjuhë ligjore ose me shkronja të vogla”.
Nëse komisioni — që tani vepron vetëm me tre nga pesë komisionerët e tij — i ka ende sytë nga këto praktika sot është një çështje e hapur, të cilën ia kemi ngritur drejtpërdrejt FTC-së.