Përdoruesit e API të OpenAI marrin akses të plotë në modelin e ri o1

foto

Zhvilluesit e aplikacioneve që hyjnë në OpenAI përmes API-së së tij afatgjatë, tani do të kenë akses në modelin më të fundit të plotë të kompanisë o1, në vend të pamjes paraprake prej muajsh o1. Përmirësimi është një nga një sërë veçorish të reja që po shpërndahen për klientët zhvillues të OpenAI duke filluar nga sot.

foto

OpenAI njoftoi gjatë një transmetimi të drejtpërdrejtë sot se modeli i ri o1 do të sjellë shumë nga “karakteristikat thelbësore që ju kanë munguar” nga API gjatë shikimit të o1. Kjo përfshin aftësinë për të përdorur mesazhet e zhvilluesit për të ndihmuar në drejtimin e chatbot-it tuaj të veçantë (dmth. “Ju jeni një asistent i dobishëm për profesionistët e taksave.”) dhe aksesin në një parametër “përpjekje arsyetimi” që i tregon API-së se sa kohë duhet të mendojë për pyetje specifike, duke kursyer kohë dhe para për problemet e thjeshta në mënyrë që ato të mund të përdoren për ato më të vështirat. Përdoruesit e API mund të përdorin gjithashtu informacione vizuale si skanimet e dokumenteve si hyrje.

foto

OpenAI theksoi gjithashtu përmirësimet në përdorimin e API-së së re të thirrjeve të funksioneve të brendshme, ku modeli OpenAI vendos të thërrasë funksione të parashkruara nga zhvillues të jashtëm për të gjeneruar përgjigje për pyetje të caktuara, kur është e përshtatshme. API i ri është gjithashtu më i saktë në përdorimin e rezultateve të strukturuara, të cilat përdorin një skemë JSON për të paraqitur informacionin në një format specifik të përshkruar nga zhvilluesi, tha OpenAI.

Modeli o1 përdor 60 për qind më pak argumente të të menduarit sesa o1-preview, tha OpenAI, duke gjeneruar rezultate më të shpejta dhe më të lira. Por këto rezultate janë gjithashtu afërsisht 25 deri në 35 pikë përqindjeje më të sakta në standardet si LiveBench dhe AIME, sipas OpenAI.

Ndërsa aksesi o1 do të fillojë të shpërndahet te klientët e zhvillimit të nivelit të 5-të sot, qasja në API në modelin o1 Pro prej 200 dollarësh në muaj premtohet vetëm se do të “vjen së shpejti”.

Zhvilluesit që përdorin API-të e zërit në kohë reale të OpenAI do të kenë gjithashtu akses të plotë në mbështetjen e WebRTC që u njoftua sot. Kjo vjen në krye të mbështetjes ekzistuese për standardin audio WebSocket dhe mund të thjeshtojë krijimin e ndërfaqeve audio OpenAI për aplikacionet e palëve të treta nga afërsisht 250 rreshta kodi në rreth një duzinë, sipas kompanisë.

OpenAI thotë se do të lëshojë një kod të thjeshtë WebRTC që mund të përdoret në baza plug-and-play në shumë pajisje të thjeshta, nga renë lodrash deri te syzet dhe kamerat inteligjente që duan të përdorin asistentët e AI të ndërgjegjshëm për kontekstin. Për të ndihmuar në inkurajimin e këtyre llojeve të përdorimeve, OpenAI tha se po reduktonte koston e argumenteve audio o1 për zhvilluesit e API me 60 për qind dhe koston e mini argumenteve 4o me plot 90 për qind.

Zhvilluesit e interesuar në rregullimin e modeleve të tyre të AI mund të përdorin gjithashtu një metodë të re të quajtur “optimizimi i preferencës së drejtpërdrejtë” për përpjekjet e tyre. Në sistemin aktual të akordimit të mirë të mbikëqyrur, prodhuesit e modeleve duhet të japin shembuj të çifteve të sakta hyrje/dalje që duan të ndihmojnë në përsosjen e modelit të ri. Me optimizimin e drejtpërdrejtë të preferencave, krijuesit e modeleve thjesht mund të ofrojnë dy përgjigje të veçanta dhe të tregojnë se njëra është e preferuar mbi tjetrën.

OpenAI thotë se procesi i akordimit të tij më pas do të optimizohet për të mësuar dallimin midis përgjigjeve të preferuara dhe jo të parapëlqyera të ofruara, duke zbuluar automatikisht ndryshimet në gjëra të tilla si shprehja, formatimi dhe udhëzimet e stilit, ose niveli i ndihmës/kreativitetit të përgjigjeve dhe duke i faktorizuar ato në model i ri.

Programuesit që shkruajnë në Go ose Java do të jenë gjithashtu në gjendje të përdorin SDK të reja për ato gjuhë për t’u lidhur me OpenAI API, tha OpenAI.