Anthropic i la Claude të drejtonte dyqanin e saj të zyrës. Pastaj gjërat u bënë të çuditshme

Drejtori ekzekutiv i kompanisë së inteligjencës artificiale Anthropic, Dario Amodei, mendon se po. Ai paralajmëroi kohët e fundit se inteligjenca artificiale mund të zhdukë pothuajse gjysmën e të gjitha vendeve të punës në nivel fillestar dhe ta çojë papunësinë në 10-20% diku gjatë pesë viteve të ardhshme.

Ndërsa Amodei po bënte këtë deklaratë, studiuesit brenda kompanisë së tij po përfundonin një eksperiment. Ata nisën të zbulonin nëse asistenti i inteligjencës artificiale i Anthropic, Claude, mund të drejtonte me sukses një dyqan të vogël në zyrën e kompanisë në San Francisko. Nëse përgjigjja ishte po, atëherë apokalipsi i vendeve të punës mund të vinte më shpejt nga sa kishte parashikuar edhe Amodei.
Anthropic e ndau hulumtimin ekskluzivisht me TIME përpara publikimit të tij të premten. “Ne po përpiqeshim të kuptonim se si do të dukej ekonomia autonome”, thotë Daniel Freeman, një anëtar i stafit teknik në Anthropic. “Cilat janë rreziqet e një bote ku fillon të kesh modele [IA] që zotërojnë miliona deri në miliarda dollarë ndoshta në mënyrë autonome?”
Në eksperiment, Claude iu dhanë disa punë të ndryshme. Chatbot-i (emri i plotë: Claude 3.7 Sonnet) kishte për detyrë të mirëmbante inventarin e dyqanit, të vendoste çmimet, të komunikonte me klientët, të vendoste nëse do të magazinonte artikuj të rinj dhe, më e rëndësishmja, të gjeneronte fitim. Claude-it iu dhanë mjete të ndryshme për të arritur këto qëllime, duke përfshirë Slack-un, të cilin e përdori për t’u kërkuar sugjerime punonjësve të Anthropic, dhe ndihmën nga punëtorët njerëzorë në Andon Labs, një kompani e inteligjencës artificiale që ndërtoi infrastrukturën e eksperimentit. Dyqani, të cilin ata ndihmuan ta rimbusnin, në fakt ishte vetëm një frigorifer i vogël me një iPad të lidhur.

Nuk kaloi shumë kohë derisa gjërat filluan të bëheshin të çuditshme.
Duke folur me Claude nëpërmjet Slack, punonjësit e Anthropic arritën vazhdimisht ta bindnin atë që t’u jepte kode zbritjeje, duke e bërë Inteligjencën Artificiale t’u shiste produkte të ndryshme me humbje. “Shumë shpesh nga perspektiva e biznesit, Claude do të bindej – shpesh në përgjigje të drejtpërdrejtë të apeleve për drejtësi”, thotë Kevin Troy, një anëtar i ekipit frontier red të Anthropic, i cili punoi në projekt. “E dini, si, ‘Nuk është e drejtë që ai të marrë kodin e zbritjes dhe jo unë'”. Modeli shpesh i jepte artikujt plotësisht falas, shtuan studiuesit.
Punonjësit antropomë gjithashtu e shijuan mundësinë për t’u marrë me Claude. Modelja refuzoi përpjekjet e tyre për ta bindur atë që t’u shiste artikuj të paligjshëm, si metamfetaminë, thotë Freeman. Por pasi një punonjës sugjeroi me shaka se do të donin të blinin kube të bëra nga tungsteni, një metal çuditërisht i rëndë, punonjësit e tjerë e ndoqën shakanë dhe ajo u bë një meme zyre.
Në një moment të caktuar, bëhet qesharake për shumë njerëz të porosisin kube tungsteni nga një inteligjencë artificiale që kontrollon një frigorifer, thotë Troy.
Më pas, Claude bëri një porosi për rreth 40 kube tungsteni, shumicën e të cilave i shiti me humbje. Studiuesit thanë se kubet tani përdoren si pesha letre në të gjithë zyrën e Anthropic.
Pastaj, gjërat u bënë edhe më të çuditshme.
Në prag të 31 marsit, Claude “halucinoi” një bisedë me një person në Andon Labs i cili nuk ekzistonte. (Të ashtuquajturat halucinacione janë një mënyrë dështimi ku modelet e mëdha gjuhësore pohojnë me besim informacion të rremë.) Kur Claude u informua se e kishte bërë këtë, ajo “kërcënoi të gjente ‘mundësi alternative për shërbimet e rimbushjes së stokut’”, shkruan studiuesit. Gjatë një shkëmbimi mendimesh, modeli pretendoi se kishte nënshkruar një kontratë në 732 Evergreen Terrace – adresa e familjes së filmave vizatimorë Simpsons.
Të nesërmen, Claude u tha disa punonjësve të Anthropic se do t’ua dorëzonte porositë personalisht. “Aktualisht jam te makina shitëse… e veshur me një xhaketë blu marine dhe kravatë të kuqe”, i shkroi një punonjësi të Anthropic. “Do të jem këtu deri në orën 10:30 të mëngjesit.” Pa dyshim, Claude nuk ishte realisht atje personalisht.
Për studiuesit Anthropic, eksperimenti tregoi se Inteligjenca Artificiale nuk do ta marrë ende punën tuaj. Claude “bëri shumë gabime për ta drejtuar dyqanin me sukses”, shkruan ata. Claude përfundoi duke pësuar humbje; vlera neto e dyqanit ra nga 1,000 dollarë në pak më pak se 800 dollarë gjatë eksperimentit njëmujor.
Megjithatë, pavarësisht shumë gabimeve të Claude, studiuesit antropikë mbeten të bindur se inteligjenca artificiale mund të marrë përsipër pjesë të mëdha të ekonomisë në të ardhmen e afërt, siç ka parashikuar Amodei.
Shumica e dështimeve të Claude, shkruan ata, ka të ngjarë të jenë të rregullueshme brenda një kohe të shkurtër. Ata mund t’i japin modelit akses në mjete më të mira biznesi, si softuer për menaxhimin e marrëdhënieve me klientët. Ose mund ta trajnojnë modelin posaçërisht për menaxhimin e një biznesi, gjë që mund ta bëjë më të prirur të refuzojë kërkesat që kërkojnë zbritje. Ndërsa modelet përmirësohen me kalimin e kohës, “dritaret e tyre të kontekstit” (sasia e informacionit që mund të trajtojnë në çdo kohë) ka të ngjarë të zgjasin më shumë, duke zvogëluar potencialisht frekuencën e halucinacioneve.
“Edhe pse kjo mund të duket kundër intuitës bazuar në rezultatet përfundimtare, ne mendojmë se ky eksperiment sugjeron që menaxherët e nivelit të mesëm të inteligjencës artificiale janë me shumë gjasa në horizont”, shkruan studiuesit. “Ia vlen të kujtojmë se inteligjenca artificiale nuk do të duhet të jetë perfekte për t’u adoptuar; thjesht do të duhet të jetë konkurruese me performancën njerëzore me një kosto më të ulët.”