Terminologjia e AI, e shpjeguar për njerëzit
Inteligjenca artificiale është gjëja e re e nxehtë në teknologji – duket sikur çdo kompani po flet për mënyrën se si po bën hapa duke përdorur ose zhvilluar AI. Por fusha e AI është gjithashtu aq e mbushur me zhargon sa mund të jetë jashtëzakonisht e vështirë të kuptosh se çfarë po ndodh në të vërtetë me çdo zhvillim të ri.
Për t’ju ndihmuar të kuptoni më mirë se çfarë po ndodh, ne kemi bashkuar një listë me disa nga termat më të zakonshëm të AI. Ne do të bëjmë çmos për të shpjeguar se çfarë nënkuptojnë dhe pse janë të rëndësishme.
Inteligjenca artificiale: Shpesh i shkurtuar në AI, termi ” inteligjencë artificiale ” është teknikisht disiplina e shkencës kompjuterike që i kushtohet krijimit të sistemeve kompjuterike që mund të mendojnë si një njeri.
Por tani për tani, ne po dëgjojmë më së shumti për AI si një teknologji dhe apo edhe një entitet , dhe çfarë saktësisht do të thotë kjo është më e vështirë të përcaktohet. Gjithashtu përdoret shpesh si një fjalë kryesore e marketingut, gjë që e bën përkufizimin e saj më të ndryshueshëm sesa duhet.
Google, për shembull, flet shumë për mënyrën se si ka investuar në AI për vite me radhë. Kjo i referohet asaj se sa nga produktet e saj janë përmirësuar nga inteligjenca artificiale dhe se si kompania ofron mjete si Gemini që duken të jenë inteligjente, për shembull. Ekzistojnë modele themelore të AI që fuqizojnë shumë mjete të AI, si GPT e OpenAI. Më pas, është CEO i Meta, Mark Zuckerberg, i cili ka përdorur AI si emër për t’iu referuar chatbot-eve individuale.
Ndërsa më shumë kompani përpiqen të shesin AI si gjënë tjetër të madhe, mënyrat e përdorimit të termit dhe nomenklaturës tjetër të lidhur mund të bëhen edhe më konfuze. Ka një mori frazash që ka të ngjarë t’i hasni në artikuj ose marketing në lidhje me AI, kështu që për t’ju ndihmuar t’i kuptoni më mirë ato, unë kam bashkuar një përmbledhje të shumë prej termave kyç në inteligjencën artificiale për të cilat aktualisht po flitet. Në fund të fundit, megjithatë, gjithçka zbret në përpjekjen për t’i bërë kompjuterët më të zgjuar.
(Vini re se unë po jap vetëm një përmbledhje rudimentare të shumë prej këtyre termave. Shumë prej tyre shpesh mund të bëhen shumë shkencorë, por shpresojmë që ky artikull t’ju japë një kuptim të bazave.)
Mësimi i makinerisë: Sistemet e mësimit të makinerisë trajnohen (do të shpjegojmë më shumë se çfarë trajnimi është më vonë) mbi të dhënat, në mënyrë që ata të mund të bëjnë parashikime për informacione të reja. Në këtë mënyrë, ata mund të “mësojnë”. Mësimi i makinerisë është një fushë brenda inteligjencës artificiale dhe është kritike për shumë teknologji të AI.
Inteligjenca e përgjithshme artificiale (AGI): Inteligjenca artificiale që është po aq e zgjuar ose më e zgjuar se një njeri. (OpenAI në veçanti po investon shumë në AGI .) Kjo mund të jetë teknologji tepër e fuqishme, por për shumë njerëz, është gjithashtu potencialisht perspektiva më e frikshme në lidhje me mundësitë e AI – mendoni për të gjithë filmat që kemi parë për makinat superinteligjente duke pushtuar botën! Nëse kjo nuk mjafton, po punohet gjithashtu për ” superinteligjencën “, ose AI që është shumë më e zgjuar se njeriu.
Generative AI: Një teknologji AI e aftë për të gjeneruar tekst të ri, imazhe, kode dhe më shumë. Mendoni për të gjitha përgjigjet dhe imazhet interesante ( nëse herë pas here problematike ) që keni parë duke u prodhuar nga ChatGPT ose Gemini i Google . Mjetet gjeneruese të AI mundësohen nga modele të AI që zakonisht trajnohen në sasi të mëdha të dhënash.
Halucinacione: Jo, nuk po flasim për vizione të çuditshme. Është kjo: për shkak se mjetet gjeneruese të inteligjencës artificiale janë po aq të mira sa të dhënat mbi të cilat janë trajnuar, ato mund të “halucinojnë” ose të krijojnë me besim atë që mendojnë se janë përgjigjet më të mira ndaj pyetjeve. Këto halucinacione (ose, nëse doni të jeni plotësisht të sinqertë, marrëzi ) nënkuptojnë se sistemet mund të bëjnë gabime faktike ose të japin përgjigje të kota. Madje ka disa polemika nëse halucinacionet e AI mund të “rregullohen”.
Paragjykimi: Halucinacionet nuk janë problemet e vetme që kanë dalë kur kemi të bëjmë me AI – dhe kjo mund të jetë parashikuar pasi AI-të janë, në fund të fundit, të programuara nga njerëzit. Si rezultat, në varësi të të dhënave të tyre të trajnimit, mjetet e AI mund të demonstrojnë paragjykime. Për shembull, kërkimi i vitit 2018 nga Joy Buolamwini, një shkencëtar kompjuteri në MIT Media Lab dhe Timnit Gebru, themeluesi dhe drejtori ekzekutiv i Institutit të Kërkimeve të Shpërndara të Inteligjencës Artificiale (DAIR), bashkëautor i një punimi që ilustron se si softueri i njohjes së fytyrës kishte më të lartë shkalla e gabimit kur përpiqet të identifikojë gjininë e grave me lëkurë të errët.
Modeli i AI: Modelet e AI janë trajnuar mbi të dhënat në mënyrë që ata të mund të kryejnë detyra ose të marrin vendime vetë.
Modele të mëdha gjuhësore, ose LLM: Një lloj modeli i AI që mund të përpunojë dhe gjenerojë tekst të gjuhës natyrore. Anthropic’s Claude, i cili, sipas kompanisë, është “një asistent i dobishëm, i sinqertë dhe i padëmshëm me një ton bisedor”, është një shembull i një LLM.
Modelet e difuzionit: Modele të AI që mund të përdoren për gjëra të tilla si gjenerimi i imazheve nga kërkesat e tekstit. Ata trajnohen duke shtuar fillimisht zhurmë – të tilla si statike – në një imazh dhe më pas duke e kthyer procesin në mënyrë që AI të mësojë se si të krijojë një imazh të qartë . Ekzistojnë gjithashtu modele difuzioni që punojnë me audio dhe video.
Modelet e themelimit: Këto modele gjeneruese të AI janë trajnuar mbi një sasi të madhe të dhënash dhe, si rezultat, mund të jenë themeli për një shumëllojshmëri të gjerë aplikacionesh pa trajnime specifike për ato detyra. (Termi u krijua nga studiuesit e Stanfordit në vitin 2021. ) GPT i OpenAI, Gemini i Google , Llama i Metës dhe Claude i Anthropic janë të gjithë shembuj të modeleve të fondacionit. Shumë kompani po i tregtojnë gjithashtu modelet e tyre të AI si multimodale , që do të thotë se mund të përpunojnë lloje të shumta të dhënash, si tekst, imazhe dhe video.
Modelet kufitare: Përveç modeleve të themelimit, kompanitë e inteligjencës artificiale po punojnë në atë që ata i quajnë “modele kufitare”, që në thelb është vetëm një term marketingu për modelet e tyre të ardhshme të papublikuara. Teorikisht, këto modele mund të jenë shumë më të fuqishme se modelet e AI që janë në dispozicion sot, megjithëse ka gjithashtu shqetësime se ato mund të paraqesin rreziqe të konsiderueshme.
Epo, ata janë të trajnuar. Trajnimi është një proces me anë të të cilit modelet e AI mësojnë të kuptojnë të dhënat në mënyra specifike duke analizuar grupet e të dhënave në mënyrë që ata të mund të bëjnë parashikime dhe të njohin modele. Për shembull, modelet e mëdha gjuhësore janë trajnuar duke “lexuar” sasi të mëdha teksti. Kjo do të thotë që kur mjetet e inteligjencës artificiale si ChatGPT u përgjigjen pyetjeve tuaja, ata mund të “kuptojnë” atë që po thoni dhe të gjenerojnë përgjigje që tingëllojnë si gjuha njerëzore dhe adresojnë atë që ka të bëjë me pyetjen tuaj.
Trajnimi shpesh kërkon një sasi të konsiderueshme burimesh dhe fuqi kompjuterike, dhe shumë kompani mbështeten në GPU të fuqishme për të ndihmuar me këtë trajnim. Modelet e AI mund të furnizohen me lloje të ndryshme të dhënash, zakonisht në sasi të mëdha, të tilla si tekst, imazhe, muzikë dhe video. Kjo është – mjaft logjikisht – e njohur si të dhëna trajnimi .
Parametrat, me pak fjalë, janë variablat që mëson një model i AI si pjesë e trajnimit të tij. Përshkrimi më i mirë që kam gjetur për atë që në të vërtetë do të thotë vjen nga Helen Toner, drejtoresha e strategjisë dhe granteve kërkimore themelore në Qendrën për Sigurinë dhe Teknologjinë në zhvillim të Georgetown dhe një ish-anëtare e bordit të OpenAI :
Parametrat janë numrat brenda një modeli të AI që përcaktojnë se si një hyrje (p.sh., një pjesë e tekstit të kërkesës) konvertohet në një dalje (p.sh., fjala tjetër pas kërkesës). Procesi i ‘trajnimit’ të një modeli të AI konsiston në përdorimin e teknikave të optimizimit matematikor për të rregulluar vlerat e parametrave të modelit vazhdimisht derisa modeli të jetë shumë i mirë në konvertimin e të dhënave në rezultate.
Me fjalë të tjera, parametrat e një modeli të inteligjencës artificiale ndihmojnë në përcaktimin e përgjigjeve që më pas do t’ju tregojnë. Kompanitë ndonjëherë mburren se sa parametra ka një model si një mënyrë për të demonstruar kompleksitetin e atij modeli.
Përpunimi i gjuhës natyrore (NLP): Aftësia e makinave për të kuptuar gjuhën njerëzore falë mësimit të makinerive. ChatGPT i OpenAI është një shembull bazë: ai mund të kuptojë pyetjet tuaja të tekstit dhe të gjenerojë tekst si përgjigje. Një tjetër mjet i fuqishëm që mund të bëjë NLP është teknologjia e njohjes së fjalës Whisper të OpenAI , të cilën kompania thuhet se e përdori për të transkriptuar audio nga më shumë se 1 milion orë video në YouTube për të ndihmuar në trajnimin e GPT-4.
Konkluzioni: Kur një aplikacion gjenerues i AI në fakt gjeneron diçka, si ChatGPT duke iu përgjigjur një kërkese se si të bëni biskota me çokollatë duke ndarë një recetë. Kjo është detyra që bën kompjuteri juaj kur ekzekutoni komandat lokale të AI.
Shenjat: Shenjat i referohen pjesëve të tekstit, të tilla si fjalë, pjesë fjalësh, apo edhe karaktere individuale. Për shembull, LLM-të do të ndajnë tekstin në shenja në mënyrë që ata të mund t’i analizojnë ato, të përcaktojnë se si argumentet lidhen me njëri-tjetrin dhe të gjenerojnë përgjigje. Sa më shumë shenja të përpunojë një model në të njëjtën kohë (një sasi e njohur si “dritarja e kontekstit”), aq më të sofistikuara mund të jenë rezultatet.
Rrjeti nervor: Një rrjet nervor është arkitektura kompjuterike që ndihmon kompjuterët të përpunojnë të dhënat duke përdorur nyje, të cilat mund të krahasohen me neuronet e trurit të njeriut. Rrjetet nervore janë kritike për sistemet e njohura gjeneruese të AI, sepse ato mund të mësojnë të kuptojnë modele komplekse pa programim të qartë – për shembull, trajnim mbi të dhënat mjekësore për të qenë në gjendje të bëjnë diagnoza.
Transformator: Një transformator është një lloj arkitekture e rrjetit nervor që përdor një mekanizëm “vëmendjeje” për të përpunuar se si pjesët e një sekuence lidhen me njëra-tjetrën. Amazon ka një shembull të mirë se çfarë do të thotë kjo në praktikë:
Merrni parasysh këtë sekuencë hyrëse: “Cila është ngjyra e qiellit?” Modeli i transformatorit përdor një paraqitje të brendshme matematikore që identifikon lidhjen dhe marrëdhënien midis fjalëve ngjyrë, qiell dhe blu. Ai përdor atë njohuri për të gjeneruar rezultatin: “Qielli është blu”.
Jo vetëm që transformatorët janë shumë të fuqishëm, por gjithashtu mund të trajnohen më shpejt se llojet e tjera të rrjeteve nervore. Që kur ish-punonjësit e Google publikuan letrën e parë mbi transformatorët në vitin 2017 , ata janë bërë një arsye e madhe pse po flasim kaq shumë për teknologjitë gjeneruese të AI-së tani. (T në ChatGPT qëndron për transformator.)
RAG: Ky akronim qëndron për ” gjeneratë e shtuar me rikthim “. Kur një model i AI po gjeneron diçka, RAG e lejon modelin të gjejë dhe të shtojë kontekst nga përtej asaj ku është trajnuar, gjë që mund të përmirësojë saktësinë e asaj që gjeneron përfundimisht.
Le të themi se ju pyesni një chatbot të AI diçka për të cilën, bazuar në trajnimin e tij, ai në fakt nuk e di përgjigjen. Pa RAG, chatbot thjesht mund të halucinojë një përgjigje të gabuar. Me RAG, megjithatë, ai mund të kontrollojë burimet e jashtme – si, të themi, faqet e tjera në internet – dhe t’i përdorë ato të dhëna për të ndihmuar në informimin e përgjigjes së tij.
Çipi H100 i Nvidia: Një nga njësitë më të njohura të përpunimit grafik (GPU) që përdoret për trajnimin e AI. Kompanitë po kërkojnë për H100 sepse shihet si më i miri në trajtimin e ngarkesave të AI mbi çipat e tjerë të AI të nivelit të serverit. Megjithatë, ndërsa kërkesa e jashtëzakonshme për çipat e Nvidia-s e ka bërë atë ndër kompanitë më të vlefshme në botë , shumë kompani të tjera të teknologjisë po zhvillojnë çipat e tyre të AI , të cilat mund të humbasin zotërimin e Nvidia-s në treg.
Njësitë e përpunimit nervor (NPU): Procesorë të dedikuar në kompjuterë, tabletë dhe telefona inteligjentë që mund të kryejnë konkluzionet e AI në pajisjen tuaj. (Apple përdor termin “motor nervor.”) NPU-të mund të jenë më efikase në kryerjen e shumë detyrave me AI në pajisjet tuaja (si shtimi i turbullimit të sfondit gjatë një videotelefonate) sesa një CPU ose një GPU.
KËSHILLA: Ky akronim, i cili qëndron për “trilion operacione në sekondë”, është një term që shitësit e teknologjisë po përdorin për të mburrur se sa të aftë janë çipat e tyre në përfundimin e AI.
Ka shumë kompani që janë bërë lider në zhvillimin e AI dhe mjeteve të fuqizuara nga AI. Disa janë gjigantë të teknologjisë, por të tjerët janë startup më të rinj. Këtu janë disa nga lojtarët në përzierje:
OpenAI / ChatGPT: Arsyeja që AI është një punë kaq e madhe tani është padyshim falë ChatGPT , chatbot i AI që OpenAI lëshoi në fund të 2022. Popullariteti shpërthyes i shërbimit i kapi në masë të madhe lojtarët e mëdhenj të teknologjisë të pasigurt dhe tani pothuajse çdo kompani tjetër teknologjike po përpiqet të mburret me aftësitë e tyre të AI.
Microsoft / Copilot: Microsoft po përgatit Copilot, asistentin e tij AI të mundësuar nga modelet GPT të OpenAI, në sa më shumë produkte që mundet. Gjigandi i teknologjisë në Seattle ka gjithashtu 49 për qind të aksioneve në OpenAI.
Google / Gemini: Google është në garë për të fuqizuar produktet e tij me Gemini, i cili i referohet si asistentit të AI të kompanisë , ashtu edhe modeleve të saj të ndryshme të AI .
Meta / Llama: Përpjekjet e Meta-s për AI janë të gjitha rreth modelit të saj Llama (Large Language Model Meta AI), i cili, ndryshe nga modelet e kompanive të tjera të mëdha të teknologjisë, është me burim të hapur .
Apple / Apple Intelligence: Apple po shton veçori të reja të fokusuara në AI në produktet e saj nën flamurin e Apple Intelligence. Një veçori e re e madhe është disponueshmëria e ChatGPT brenda Siri.
Anthropic / Claude: Anthropic është një kompani e AI e themeluar nga ish-punonjës të OpenAI që prodhon modelet e Claude AI . Amazon ka investuar 4 miliardë dollarë në kompani, ndërsa Google ka investuar qindra milionë (me potencialin për të investuar 1.5 miliardë dollarë më shumë). Kohët e fundit ajo punësoi bashkëthemeluesin e Instagramit, Mike Krieger, si shefin e produktit.
xAI / Grok: Kjo është kompania AI e Elon Musk, e cila e bën Grok, një LLM. Kohët e fundit mblodhi 6 miliardë dollarë fonde.
Perplexity: Perplexity është një tjetër kompani e AI. Është i njohur për motorin e tij të kërkimit të fuqizuar nga AI, i cili është vënë nën shqyrtim për praktikat në dukje të skicuara të gërvishtjes.
Hugging Face: Një platformë që shërben si një drejtori për modelet dhe grupet e të dhënave të AI.