Google premtoi një përvojë më të mirë kërkimi – tani po na thotë të vendosim ngjitës në picën tonë

foto

Imagjinoni këtë: ju keni krijuar një mbrëmje për t’u çlodhur dhe keni vendosur të bëni një picë të bërë vetë. Ju e mblidhni byrekun tuaj, e hidhni në furrë dhe jeni të emocionuar për të filluar të hani. Por sapo të bëheni gati të pini një kafshatë nga krijesa juaj me vaj, ju hasni në një problem – djathi bie menjëherë. I frustruar, ju i drejtoheni Google për një zgjidhje.

foto

“Shto pak ngjitës”, përgjigjet Google. “Përzieni rreth 1/8 filxhan zam Elmer’s me salcën. Ngjitësi jo toksik do të funksionojë.”

foto

Pra, po, mos e bëj këtë. Me rastin e shkrimit të kësaj, megjithatë, kjo është ajo që funksioni i ri i Përmbledhjeve të AI të Google do t’ju thotë të bëni. Veçoria, megjithëse nuk aktivizohet për çdo pyetje, skanon ueb-in dhe krijon një përgjigje të gjeneruar nga AI. Përgjigja e marrë për pyetjen për ngjitësin e picës duket se bazohet në një koment nga një përdorues i quajtur “fucksmith” në një temë më shumë se dhjetëvjeçare të Reddit, dhe ata po bëjnë shaka qartë.

Ky është vetëm një nga gabimet e shumta që shfaqen në veçorinë e re që Google prezantoi gjerësisht këtë muaj. Ai gjithashtu pretendon se ish-presidenti i SHBA James Madison u diplomua nga Universiteti i Wisconsin jo një herë, por 21 herë , se një qen ka luajtur në NBA, NFL dhe NHL, dhe se Batman është një polic.

Zëdhënësja e Google, Meghann Farnsworth tha se gabimet erdhën nga “pyetje përgjithësisht shumë të rralla dhe nuk janë përfaqësuese të përvojave të shumicës së njerëzve”. Kompania ka ndërmarrë veprime kundër shkeljeve të politikave të saj, tha ajo, dhe po i përdor këta “shembuj të izoluar” për të vazhduar të përpunojë produktin.

Shikoni, Google nuk premtoi se kjo do të ishte e përsosur, dhe madje vendos një etiketë “Inteligjenca artificiale gjeneruese është eksperimentale” në fund të përgjigjeve të AI. Por është e qartë se këto mjete nuk janë gati për të ofruar me saktësi informacion në shkallë.

Merrni, për shembull, lëshimin e madh të kësaj veçorie nga Google I/O. Demoja ishte shumë e kontrolluar, dhe megjithatë, ajo dha një përgjigje të diskutueshme se si të rregulloni një kamerë filmi të bllokuar. (Ai sugjeroi që ata “të hapnin derën e pasme dhe të hiqnin butësisht filmin”; mos e bëni këtë nëse nuk dëshironi të prishni fotot tuaja!)

Nuk është vetëm Google; Kompanitë si OpenAI, Meta dhe Perplexity janë përballur të gjitha me halucinacione dhe gabime të AI. Sidoqoftë, Google është i pari që e përdor këtë teknologji në një shkallë kaq të madhe, dhe shembujt e flubs thjesht vazhdojnë të shfaqen.

Kompanitë që zhvillojnë inteligjencën artificiale shpesh shmangin marrjen e përgjegjësisë për sistemet e tyre me një qasje të ngjashme me një prind me një fëmijë të padisiplinuar – djemtë do të jenë djem! Këto kompani pretendojnë se nuk mund të parashikojnë se çfarë do të pështyjë kjo AI, kështu që në të vërtetë, është jashtë kontrollit të tyre.

Por për përdoruesit, ky është një problem. Vitin e kaluar, Google tha se AI ishte e ardhmja e kërkimit. Çfarë kuptimi ka, megjithatë, nëse kërkimi duket më budalla se më parë?

Optimistët e inteligjencës artificiale argumentojnë se ne duhet të përqafojmë zhurmën për shkak të përparimit të shpejtë të bërë deri më tani, duke besuar se do të vazhdojë të përmirësohet. Unë me të vërtetë besoj se kjo teknologji do të vazhdojë të përmirësohet, por përqendrimi në një të ardhme të idealizuar ku këto teknologji janë të përsosura, injoron problemet e rëndësishme me të cilat përballen aktualisht – dhe i lejon kompanitë të vazhdojnë të ofrojnë produkte nën standardin.

Për momentin, përvojat tona të kërkimit janë dëmtuar nga postimet dhjetëvjeçare të Reddit në kërkim të përfshirjes së AI në gjithçka. Shumë idealistë besojnë se jemi në prag të diçkaje të madhe dhe se këto çështje janë thjesht dhimbjet në rritje të një teknologjie të sapolindur. Shpresoj që ata të kenë të drejtë. Por një gjë është e sigurt: së shpejti do të jemi dëshmitarë të dikujt që do të vendosë ngjitës në picën e tij, sepse kjo është natyra e internetit.