OpenAI përpiqet të patentojë emrin “GPT”. Zyra amerikane e patentave thotë jo
Zyra e Patentave dhe Markave Tregtare të SHBA-së ka refuzuar kërkesën e OpenAI-t për markën tregtare “GPT”, e cila do të thotë “Transformator i para-trajnuar gjenerues”, arkitektura që fuqizon modelet e saj të mëdha gjuhësore.
OpenAI paraqiti për markën tregtare GPT vitin e kaluar, por avokatët e markës tregtare nuk e miratuan aplikimin e saj me arsyetimin se termi ishte “thjesht përshkrues”. Me fjalë të tjera, GPT përshkruan vetëm një funksion ose veçori të diçkaje në vend që të jetë një frazë unike për një produkt ose shërbim komercial.
Zyrtarët theksuan se GPT përshkruan një familje rrjetesh nervore, arkitektura e të cilave përdoret në shumë modele të AI të ndërtuara nga kompani të tjera. Përdorimi i tij i zakonshëm do të thotë që njerëzit do të kuptojnë se është një term i përdorur për të përshkruar teknologjitë gjeneruese të AI. OpenAI, megjithatë, raportohet se nuk u pajtua dhe tha se njerëzit nuk do të kuptonin se çfarë do të thotë “Transformator i para-trajnuar gjenerues”.
USPTO nuk ishte i bindur dhe vendosi në veprimin e saj përfundimtar se “marka e aplikuar duket të jetë e përgjithshme në lidhje me mallrat dhe/ose shërbimet e identifikuara. Një markë gjenerike, duke qenë ‘përshkruesja përfundimtare’, nuk mund të fitojë dallueshmëri dhe kështu nuk ka të drejtë të regjistrohet…në asnjë rrethanë”, shkruante [PDF].
Google do t’i mbajë të gjitha bisedat që keni me chatbotin e tij AI, i quajtur më parë Bard dhe tani i njohur si Gemini, për tre vjet – edhe nëse e fshini aplikacionin e tij.
“Bisedat që janë shqyrtuar ose komentuar nga recensues njerëzorë (dhe të dhënat përkatëse si gjuha juaj, lloji i pajisjes, informacioni i vendndodhjes ose komentet) nuk fshihen kur fshini aktivitetin tuaj të Gemini Apps sepse ato mbahen veçmas dhe nuk janë të lidhura me Google tuaj Llogaria. Në vend të kësaj, ato mbahen deri në tre vjet,” konfirmoi Google në përditësimin e fundit të politikës së privatësisë së Gemini.
Përdoruesit duhet të jenë të kujdesshëm për atë që i thonë chatbot-it. Google i këshilloi njerëzit që të mos ndajnë asnjë informacion personal që nuk do të dëshironin që recensentët ta lexonin, as ndonjë sekret tregtar që mund të shkonte në trajnimin e modeleve të ardhshme. Rregulli duket se zbatohet për bisedat që janë inspektuar.
Sidoqoftë, nuk është e qartë nëse mund të dalloni nëse dikush ka parë shkëmbimet tuaja me Gemini, siç theksoi Shkence.info. Megjithatë, mund të jetë më mirë të jesh i sigurt se sa të vjen keq.
Tani mund të ekzekutoni një chatbot me burim të hapur AI të personalizuar në të dhënat e ruajtura në pajisjet tuaja, falë softuerit falas të Nvidia “Chat with RTX”.
Sidoqoftë, kërkon një sistem Windows 10 ose 11 dhe një GPU po aq të fuqishme sa Seria GeForce RTX 30 me 8 GB memorie me akses të rastësishëm video. “Chat with RTX” paketon së bashku mjete si gjenerimi i shtuar me rikthim dhe softueri Nvidia TensorRT-LLM për të lidhur modele të mëdha gjuhësore si Mistral ose Llama 2 me skedarët e kompjuterit tuaj.
Pse mund të dëshironi ta bëni këtë, ju pyesni? Epo, nëse keni shumë përmbajtje që dëshironi të kërkoni, një chatbot i AI i përshtatur në të dhënat tuaja mund të jetë i dobishëm. Informacioni i ruajtur në formatet txt, .pdf, .doc/.docx dhe .xml mund të përpunohet. Mund të shtoni gjithashtu lloje të tjera përmbajtjesh si URL-të e videove në YouTube dhe të kërkoni në chatbot për të gjetur gjëra të tilla si rekomandimet e udhëtimit nga vloggerët tuaj të preferuar ose udhëzimet më të fundit.
Sistemi funksionon në nivel lokal, kështu që chatbot-i juaj i personalizuar nuk duhet të jetë shumë i ngadalshëm në përgjigjen ndaj jush. Instalimi i “Chat with RTX” është pak i ndërlikuar. Nvidia paralajmëron se softueri duhet të hyjë në direktorinë e instalimit të paracaktuar.
Pas publikimit të modelit tekst-në-video të OpenAI, Sora, këtu është një temë interesante në X që tregon se si modeleve gjeneruese të AI-së u jepet e njëjta kërkesë hyrëse.
Mund të shihni krahasime krah për krah për softuerin tekst-për-imazh të Sora vs Midjourney këtu .
A do të thotë se të gjitha këto kompani kanë trajnuar në thelb modelet e tyre mbi të njëjtat të dhëna?