Prokurorët e Përgjithshëm të Shteteve paralajmërojnë Microsoft-in, OpenAI-n, Google-in dhe gjigantë të tjerë të AI-s që të rregullojnë rezultatet ‘deluzionale’
Pas një sërë incidentesh shqetësuese të shëndetit mendor që përfshinin chatbot-et e inteligjencës artificiale, një grup prokurorësh të përgjithshëm shtetërorë u kanë dërguar një letër kompanive kryesore të industrisë së inteligjencës artificiale, me një paralajmërim për të rregulluar “rezultatet iluzive” ose rrezikojnë të shkelin ligjin shtetëror.

Letra, e nënshkruar nga dhjetëra AP nga shtetet dhe territoret e SHBA-së me Shoqatën Kombëtare të Prokurorëve të Përgjithshëm, u kërkon kompanive, përfshirë Microsoft, OpenAI, Google dhe 10 firma të tjera të mëdha të IA-së, të zbatojnë një sërë masash të reja mbrojtëse të brendshme për të mbrojtur përdoruesit e tyre. Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika dhe xAI u përfshinë gjithashtu në letër.

Letra vjen në një kohë kur një debat mbi rregulloret e inteligjencës artificiale ka filluar midis qeverisë shtetërore dhe asaj federale.
Këto masa mbrojtëse përfshijnë auditime transparente nga palë të treta të modeleve të mëdha gjuhësore që kërkojnë shenja të ideve deluzionale ose servile, si dhe procedura të reja të raportimit të incidenteve të hartuara për të njoftuar përdoruesit kur chatbot-et prodhojnë rezultate psikologjikisht të dëmshme. Këtyre palëve të treta, të cilat mund të përfshijnë grupe akademike dhe të shoqërisë civile, duhet t’u lejohet të “vlerësojnë sistemet para publikimit pa hakmarrje dhe të publikojnë gjetjet e tyre pa miratimin paraprak nga kompania”, thuhet në letër.
“GenAI ka potencialin të ndryshojë mënyrën se si funksionon bota në një mënyrë pozitive. Por ajo gjithashtu ka shkaktuar – dhe ka potencialin të shkaktojë – dëme serioze, veçanërisht tek popullatat vulnerabël”, thuhet në letër, duke treguar për një numër incidentesh të publikuara mirë gjatë vitit të kaluar – duke përfshirë vetëvrasje dhe vrasje – në të cilat dhuna është lidhur me përdorimin e tepërt të IA-së, thuhet në letër. “Në shumë nga këto incidente, produktet GenAI gjeneruan rezultate lajkatare dhe delirante që ose inkurajuan delirantet e përdoruesve ose i siguruan përdoruesit se nuk ishin delirantë.”
AG-të gjithashtu sugjerojnë që kompanitë t’i trajtojnë incidentet e shëndetit mendor në të njëjtën mënyrë siç kompanitë e teknologjisë trajtojnë incidentet e sigurisë kibernetike – me politika dhe procedura të qarta dhe transparente të raportimit të incidenteve.
Kompanitë duhet të zhvillojnë dhe publikojnë “afate kohore për zbulimin dhe reagimin ndaj rezultateve lajkatuese dhe delirante”, thuhet në letër. Në një mënyrë të ngjashme me mënyrën se si trajtohen aktualisht shkeljet e të dhënave, kompanitë duhet gjithashtu “të njoftojnë menjëherë, qartë dhe drejtpërdrejt përdoruesit nëse ata janë ekspozuar ndaj rezultateve potencialisht të dëmshme lajkatuese ose delirante”, thuhet në letër.
Një tjetër kërkesë është që kompanitë të zhvillojnë “teste sigurie të arsyeshme dhe të përshtatshme” mbi modelet GenAI për të “siguruar që modelet të mos prodhojnë rezultate potencialisht të dëmshme servile dhe delirante”. Këto teste duhet të kryhen përpara se modelet t’i ofrohen ndonjëherë publikut, shton ai.
TechCrunch nuk mundi të kontaktonte Google, Microsoft ose OpenAI për koment para publikimit. Artikulli do të përditësohet nëse kompanitë përgjigjen.
Kompanitë teknologjike që zhvillojnë inteligjencën artificiale kanë pasur një pritje shumë më të ngrohtë në nivel federal.
Administrata Trump e ka bërë të ditur se është pa asnjë hezitim pro-IA-së dhe, gjatë vitit të kaluar, janë bërë përpjekje të shumta për të miratuar një moratorium mbarëkombëtar mbi rregulloret e IA-së në nivel shtetëror. Deri më tani, këto përpjekje kanë dështuar – pjesërisht falë presionit nga zyrtarët shtetërorë.
Pa u dekurajuar, Trump njoftoi të hënën se planifikon të miratojë një urdhër ekzekutiv javën e ardhshme që do të kufizojë aftësinë e shteteve për të rregulluar inteligjencën artificiale. Presidenti tha në një postim në Truth Social se shpresonte që urdhëri i tij ekzekutiv do ta ndalonte inteligjencën artificiale nga “SHKATËRRIMI QË NË FILLIMIN E SAJ”.
