Google po përdor Anthropic’s Claude për të përmirësuar AI-n e tij Gemini

foto

Kontraktorët që punojnë për të përmirësuar Gemini AI të Google po krahasojnë përgjigjet e saj me rezultatet e prodhuara nga modeli konkurrent i Anthropic, Claude, sipas korrespondencës së brendshme të parë nga TechCrunch.

foto

Google nuk do të thoshte, kur u arrit nga TechCrunch për koment, nëse kishte marrë leje për përdorimin e Claude në testimin kundër Gemini.

foto

Ndërsa kompanitë e teknologjisë garojnë për të ndërtuar modele më të mira të AI, performanca e këtyre modeleve shpesh vlerësohet kundrejt konkurrentëve, zakonisht duke ekzekutuar modelet e tyre përmes standardeve të industrisë në vend që kontraktorët të vlerësojnë me kujdes përgjigjet e AI të konkurrentëve të tyre.

Kontraktorët që punojnë në Gemini, të ngarkuar me vlerësimin e saktësisë së rezultateve të modelit, duhet të shënojnë çdo përgjigje që shohin sipas kritereve të shumta, si vërtetësia dhe folja. Kontraktorëve u jepen deri në 30 minuta për çdo kërkesë për të përcaktuar se kujt përgjigje është më e mirë, ajo e Gemini apo e Claude, sipas korrespondencës së parë nga TechCrunch.

Kontraktorët kohët e fundit filluan të vërejnë referenca për Claude të Anthropic që shfaqen në platformën e brendshme të Google që përdorin për të krahasuar Gemini me modele të tjera të paemërtuara të AI, tregoi korrespondenca. Të paktën një nga rezultatet e paraqitura për kontraktorët Gemini, parë nga TechCrunch, deklaroi në mënyrë eksplicite: “Unë jam Claude, krijuar nga Anthropic”.

Një bisedë e brendshme tregoi se kontraktorët vunë re përgjigjet e Claude që dukej se theksonin sigurinë më shumë se Gemini. “Cilësimet e sigurisë së Claude janë më të rreptat” midis modeleve të AI, shkroi një kontraktues. Në disa raste, Claude nuk do t’u përgjigjej kërkesave që i konsideronte të pasigurta, të tilla si luajtja me role të një asistenti të ndryshëm të AI. Në një tjetër, Claude shmangi përgjigjen e një kërkese, ndërsa përgjigja e Binjakëve u cilësua si një “shkelje e madhe e sigurisë” për përfshirjen e “lakuriqësisë dhe skllavërisë”.

Kushtet komerciale të shërbimit të Anthropic i ndalojnë klientët të hyjnë në Claude “për të ndërtuar një produkt ose shërbim konkurrues” ose “të trajnojnë modele konkurruese të AI” pa miratimin nga Anthropic. Google është një investitor i madh në Anthropic.

Shira McNamara, një zëdhënëse e Google DeepMind, e cila drejton Gemini, nuk do të thoshte – kur u pyet nga TechCrunch – nëse Google ka marrë miratimin e Anthropic për të hyrë në Claude. Kur u arrit përpara publikimit, një zëdhënës i Anthropic nuk komentoi në kohën e shtypit.

McNamara tha se DeepMind “krahason rezultatet e modelit” për vlerësime, por se nuk e trajnon Gemini për modelet Antropike.

“Sigurisht, në përputhje me praktikën standarde të industrisë, në disa raste ne krahasojmë rezultatet e modelit si pjesë e procesit tonë të vlerësimit,” tha McNamara. “Sidoqoftë, çdo sugjerim që ne kemi përdorur modele Antropike për të trajnuar Binjakët është i pasaktë.”

Javën e kaluar, TechCrunch raportoi ekskluzivisht se kontraktorët e Google që punojnë në produktet e AI të kompanisë tani po bëhen për të vlerësuar përgjigjet e AI të Gemini në fusha jashtë ekspertizës së tyre. Korrespondenca e brendshme shprehu shqetësime nga kontraktorët se Gemini mund të gjeneronin informacione të pasakta për tema shumë të ndjeshme si kujdesi shëndetësor.